O dylematach moralnych związanych z działaniem sztucznej inteligencji mówi o. Janusz Pyda, dominikanin.
Jakub Jałowiczor: Ksiądz podczas homilii pyta wiernych, czy przebaczyli wrogom. Starsza pani zgłasza się i mówi, że nie ma żadnych wrogów. „Jak to możliwe?” – dopytuje kapłan. „Przeżyłam wszystkich dziadów” – odpowiada babcia. Zna ojciec ten dowcip?
O. Janusz Pyda OP: Nie.
Platforma sztucznej inteligencji zwana ChatGPT stworzyła go dla CNA, amerykańskiego katolickiego portalu. Dziennikarze poprosili to narzędzie o napisanie żartu i po paru próbach wyszło coś takiego. O sakramenty nie pytam, bo sprawa jest jasna, jednak wyobraża sobie Ojciec, że za jakiś czas, zamiast pisać homilię, będzie można wrzucić do komputera czytanie z dnia i ewentualnie fragmenty z pism ojców Kościoła, a reszta zrobi się sama?
To już jest możliwe. Wielu wiernych nie dostrzegłoby, że tekst został wygenerowany przez algorytm. Dotyczy to nie tylko homilii. Mógłbym panu zadać pytanie, czy wyobraża sobie, że artykuł do „Gościa” jest generowany przez SI – i proszę mi wierzyć, to jest możliwe. Teksty takie będą sztampowe, odtwórcze, ale ich stworzenie jest wykonalne. Z czego to wynika? W internecie jest całe Pismo Święte, znajdziemy też ogromną bazę homilii różnego typu, a algorytmy SI mogą to kompilować. Sztuczna inteligencja robi to na tyle inteligentnie, że człowiek może tego nie zauważyć.
To dla nas sygnał, że cenisz rzetelne dziennikarstwo jakościowe. Czytaj, oglądaj i słuchaj nas bez ograniczeń.