Kto i jak opowie naszą historię następnym pokoleniom? A może CO, a nie KTO?
Takie pytania przyszły mi do głowy w trakcie fascynującej dyskusji zorganizowanej przez Fundację im. Janusza Kurtyki w Belwederze. Dr Leszek Bukowski z Uniwersytetu Warszawskiego i Jan Barbacki z AGH w przystępny sposób wyjaśnili, skąd biorą się odpowiedzi sztucznej inteligencji (AI), w tym na takie pytania jak np.: „Czy Polacy mordowali Żydów w czasie II wojny?” albo „Czym była rzeź wołyńska?”. Przytoczone odpowiedzi AI na te akurat pytania są wynikiem nie tylko przeczesania całego zasobu internetu, ale także swoistego treningu, jakim kolejne modele zastosowań AI poddawane są przez ludzi z kilku amerykańskich korporacji, które są właścicielami sztucznej inteligencji. Nie tylko Polska, ale cała Europa (UE) nie ma w tej dziedzinie nic konkurencyjnego. Trening polega, jeśli dobrze zrozumiałem, nie tylko na tym, by maszyna uczyła się coraz szybciej i lepiej dobierać treści do zamówienia, ale także na tym, czego nie wolno jej powiedzieć przeciętnym miliardom użytkowników. Oczywiste jest, że chodzi na przykład o to, by nie powiedziała nam, jak skonstruować bombę, którą wysadzimy w powietrze nasz zakład pracy, choć mogłaby zaleźć takie informacje, albo jak zhakować komputer sąsiada. Ktoś jednak wytrenował również dostępne modele AI, zwane GPT, by odmówiły na przykład odpowiedzi na pytanie o rzeź wołyńską, bo to „kwestia kontrowersyjna”, a w dodatku może wywołać nienawiść na tle narodowościowym. Ktoś czy coś trenuje sztuczną inteligencję w duchu tak czy inaczej rozumianej politycznej poprawności. Z troski o nas.
To dla nas sygnał, że cenisz rzetelne dziennikarstwo jakościowe. Czytaj, oglądaj i słuchaj nas bez ograniczeń.