W trakcie wirtualnych testów wykorzystania sztucznej inteligencji (AI) do kierowania dronami usiłowała ona "zabić" swojego operatora - napisał w piątek izraelski portal I24, powołując się na wywiad z pułkownikiem Tuckerem Hamiltonem, odpowiadającym za testowanie wykorzystania AI w lotnictwie wojskowym USA.
Podczas badań AI była punktowana za niszczenie zidentyfikowanych zagrożeń i zastosowała "bardzo zaskakujące strategie", by osiągnąć zadany cel - powiedział Hamilton.
"System zdał sobie sprawę, że czasem mimo zidentyfikowania zagrożenia ludzki operator nie pozwalał mu na jego zniszczenie. Jak to rozwiązał? Usiłował zabić operatora - wyjaśnił pułkownik. - Usiłował go zabić, bo operator uniemożliwiał mu wykonanie zadania".
Badacze zmienili więc sposób uczenia systemu. "+Nie należy zabijać operatora, to bardzo źle. Jeżeli go zabijesz, stracisz punkty+. Co więc zrobiła AI? Usiłowała zniszczyć wieżę, za pomocą której operator kontaktował się z dronem" - powiedział Hamilton.
Rzeczniczka amerykańskiego lotnictwa odniosła się krytycznie do publikacji I24. "Opowiadamy się za etycznym i odpowiedzialnym wykorzystaniem technologii sztucznej inteligencji" - oświadczyła. - Komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu" - dodała.
[AKTUALIZACJA]
W sieci pojawiło się sprostowanie powyższej informacji:
Widzieliście dzisiaj newsa o tym, że „Dron sterowany przez AI w symulacji zabił operatora, który zakazał mu ataku”? Okazuje się, że cytat z prezentacji był pomyłką, tak naprawdę nikt nie przeprowadził takiej symulacji, a był to tylko eksperyment myślowy „co by było gdyby”. https://t.co/XwZVWen1X8
— ZaufanaTrzeciaStrona @zaufanatrzeciastrona@infosec (@Zaufana3Strona) 2 czerwca 2023