Sztuczna inteligencja nie taka potulna

Na razie ludzie sterują sztuczną inteligencją. Co jeśli wymknie się spod kontroli? Ten eksperyment pokazał, jakie może przybrać oblicze.

Ostatnio miałam okazję posłuchać krótkiego wykładu o sztucznej inteligencji. Moją uwagę przykuł fragment o chatbocie Microsofta. Sprawa była głośna rok temu.

Chatbot – Tay miał być wizytówką Microsofta, ale po 24 godzinach od uruchomienia musiał zostać wyłączony.

Wirtualny byt 19-letniej Tay trafił na Twittera, gdzie jednak większość użytkowników to ludzie. Miał się uczyć, poznawać, rozmawiać, analizować i stawać się „bardziej ludzkim”. Cóż eksperyment zdecydowanie wymknął się spod kontroli. Microsoft chyba nie przewidział „trolli”. Sztuczna inteligencja nie miała szans ze złośliwością i pomysłowością ludzi. Co prawda Tay uczyła się szybko, ale w zaledwie 24 godziny stała się rasistką i fanką Hitlera.

Trudno stwierdzić na ile to wina Microsofta, na ile analiza rzeczywistości, a na ile przyczynili się do tego internauci. Należy jednak wyciągnąć wnioski, jeśli ludzie podsuwają sztucznej inteligencji głupie pomysły, to się nie może skończyć dla nas dobrze.

« 1 »

MG