Do uczynienia wszystkiego, aby postępy w rozwoju form sztucznej inteligencji służyły sprawie ludzkiego braterstwa i pokoju zachęca Ojciec Święty w Orędziu na 57 Światowy Dzień Pokoju, który będzie obchodzony 1 stycznia 2024 roku.
ORĘDZIE
JEGO ŚWIĄTOBLIWOŚCI
FRANCISZKA
NA 57. ŚWIATOWY DZIEŃ POKOJU
1 STYCZNIA 2024 R.
Sztuczna inteligencja i pokój
Na początku Nowego Roku, czasu łaski, który Pan daje każdemu z nas, chciałbym zwrócić się do Ludu Bożego, narodów, głów państw i rządów, przedstawicieli różnych religii i społeczeństwa obywatelskiego oraz wszystkich mężczyzn i kobiet naszych czasów, aby złożyć najlepsze życzenia pokoju.
Pismo Święte zaświadcza, że Bóg dał ludziom swego Ducha, aby posiadali „mądrość, rozum, wiedzę i znajomość wszelkiego rzemiosła” (Wj 35, 31). Rozum jest wyrazem godności nadanej nam przez Stwórcę, który stworzył nas na swój obraz i podobieństwo (por. Rdz 1, 26) i umożliwił nam odpowiadanie na Jego miłość poprzez wolność i poznanie. Nauka i technologia w szczególny sposób ukazują tę fundamentalnie relacyjną właściwość ludzkiego rozumu: są one niezwykłymi wytworami jego potencjału twórczego.
W Konstytucji duszpasterskiej Gaudium et spes, Sobór Watykański II potwierdził tę prawdę, oświadczając, że „człowiek zawsze starał się dynamiczniej rozwijać swoje życie dzięki własnej pracy i uzdolnieniom duchowym". Kiedy ludzie, „za pomocą środków technicznych”, dążą do tego, aby ziemia „stawała się mieszkaniem godnym całej rodziny ludzkiej", działają zgodnie z planem Boga i współpracują z Jego wolą, aby dokończyć dzieło stworzenia i szerzyć pokój między narodami. Także postęp nauki i techniki, o ile przyczynia się do lepszego porządku społeczności ludzkiej, do rozwoju wolności i braterskiej komunii, prowadzi w ten sposób do udoskonalenia człowieka i przemiany świata.
Słusznie cieszymy się i jesteśmy wdzięczni za niezwykłe zdobycze nauki i techniki, dzięki którym zażegnano niezliczone bolączki, które trapiły ludzkie życie i powodowały wielkie cierpienia. Jednocześnie postęp technologiczno-naukowy, umożliwiając sprawowanie niespotykanej dotąd kontroli nad rzeczywistością, oddaje w ludzkie ręce szeroki wachlarz możliwości, z których pewne mogą stanowić zagrożenie dla ludzkiego przetrwania i niebezpieczeństwo dla wspólnego domu.
Znaczący postęp nowych technologii informacyjnych, zwłaszcza w sferze cyfrowej, stwarza zatem fascynujące szanse i poważne zagrożenia, z ogromnymi konsekwencjami dla dążenia do sprawiedliwości i zgody między ludźmi. Należy zatem zadać kilka pilnych pytań. Jakie będą średnio- i długoterminowe konsekwencje nowych technologii cyfrowych? I jaki wpływ będą one miały na życie jednostek i społeczeństwa, na międzynarodową stabilność i pokój?
Postęp w informatyce i rozwój technologii cyfrowych, w minionych dekadach, już zaczęły powodować głębokie przemiany w globalnym społeczeństwie i jego dynamice. Nowe narzędzia cyfrowe zmieniają oblicze komunikacji, administracji publicznej, edukacji, konsumpcji, interakcji osobistych i niezliczonych innych aspektów codziennego życia.
Ponadto, technologie wykorzystujące różnorodne algorytmy mogą wydobywać z cyfrowych śladów pozostawionych w Internecie dane, które pozwalają kontrolować nawyki mentalne i relacyjne ludzi w celach komercyjnych lub politycznych, często bez ich wiedzy, ograniczając ich świadome korzystanie z wolności wyboru. Rzeczywiście, w przestrzeni takiej jak sieć, charakteryzującej się nadmiarem informacji, mogą one kształtować przepływ danych zgodnie z kryteriami wyboru, które nie zawsze są zauważane przez użytkownika.
Musimy pamiętać, że badania naukowe i innowacje technologiczne nie są oderwane od rzeczywistości i „neutralne”, lecz podlegają wpływom kulturowym. Jako że, są one w pełni działaniami ludzkimi, to obierane przez nie kierunki odzwierciedlają wybory uwarunkowane wartościami osobistymi, społecznymi i kulturowymi każdej epoki. Odnosi się to także do osiąganych przez nie rezultatów: właśnie dlatego, że są one wynikiem specyficznie ludzkiego podejścia do otaczającego świata, zawsze mają wymiar etyczny, ściśle związany z decyzjami tych, którzy projektują eksperymenty i ukierunkowują produkcję ku określonym celom.
Dotyczy to również form sztucznej inteligencji. Jak dotąd, w świecie nauki i technologii nie ma jednoznacznej jej definicji. Sam termin, który wszedł już do języka potocznego, obejmuje różnorodność nauk, teorii i technik mających na celu sprawienie, by maszyny odtwarzały lub naśladowały w swoim działaniu zdolności poznawcze istot ludzkich. Mówienie w liczbie mnogiej o „formach inteligencji” może pomóc podkreślić nade wszystko niemożliwą do pokonania rozbieżność istniejącą między tymi systemami, niezależnie od tego, jak niesamowite i potężne mogą one być, a osobą ludzką: są one w ostatecznym rachunku „fragmentaryczne” w tym sensie, że mogą naśladować lub odtwarzać tylko niektóre funkcje ludzkiej inteligencji. Użycie liczby mnogiej podkreśla również, że te urządzenia, bardzo różniące się między sobą, powinny być zawsze traktowane jako „systemy socjotechniczne”. Istotnie, ich wpływ, niezależnie od technologii podstawowej, zależy nie tylko od ich zaprojektowania, lecz także od celów i interesów tych, którzy je posiadają, i tych, którzy je rozwijają, a także od sytuacji, w jakich są używane.
Sztuczna inteligencja musi być zatem rozumiana jako plejada różnych rzeczywistości i nie możemy zakładać a priori, że jej rozwój wniesie dobroczynny wkład dla przyszłości ludzkości i dla pokoju między narodami. Taki pozytywny skutek będzie możliwy tylko wtedy, gdy okażemy się zdolni do odpowiedzialnego działania i poszanowania podstawowych wartości ludzkich, takich jak „inkluzywność, transparencja, bezpieczeństwo, bezstronność, poufność i rzetelność”
Nie wystarczy również zakładać, że osoby projektujące algorytmy i technologie cyfrowe będą działać w sposób etyczny i odpowiedzialny. Konieczne jest wzmocnienie lub, w razie potrzeby, utworzenie organów, powołanych do badania pojawiających się kwestii etycznych i ochrony praw osób korzystających z form sztucznej inteligencji lub znajdujących się pod ich wpływem.
Ogromnej ekspansji technologii musi zatem towarzyszyć stosowna formacja w zakresie odpowiedzialności za jej rozwój. Wolność i pokojowe współistnienie są zagrożone wówczas, gdy ludzie ulegają pokusie egoizmu, korzyści osobistej, żądzy zysku i pragnienia władzy. Mamy zatem obowiązek poszerzyć nasze spojrzenie i ukierunkować badania techniczno-naukowe na dążenie do pokoju i dobra wspólnego, w służbie integralnego rozwoju człowieka i wspólnoty.
Przyrodzona godność każdej osoby i braterstwo, które łączy nas jako członków jednej rodziny ludzkiej, muszą leżeć u podstaw rozwoju nowych technologii i służyć jako bezdyskusyjne kryteria ich oceny przed ich wykorzystaniem, tak aby postęp cyfrowy mógł odbywać się z poszanowaniem sprawiedliwości i przyczyniać się do sprawy pokoju. Rozwój technologiczny, który nie prowadzi do poprawy jakości życia całej ludzkości, a wręcz przeciwnie, pogłębia nierówności i konflikty, nigdy nie może być uznany za prawdziwy postęp.
Sztuczna inteligencja będzie zyskiwać na znaczeniu. Wyzwania jakie stawia mają charakter techniczny, ale także antropologiczny, edukacyjny, społeczny i polityczny. Obiecuje ona na przykład oszczędność nakładów pracy, bardziej wydajną produkcję, sprawniejszy transport i bardziej dynamiczne rynki, a także rewolucję w gromadzeniu, organizacji i procesach weryfikacji danych. Musimy być świadomi zachodzących gwałtownych przemian i zarządzać nimi w sposób, który chroni podstawowe prawa człowieka, z poszanowaniem instytucji i przepisów, które promują jego integralny rozwój. Sztuczna inteligencja powinna służyć najlepszemu ludzkiemu potencjałowi i naszym najbardziej wzniosłym aspiracjom, a nie z nimi konkurować.
W swoich różnorodnych formach sztuczna inteligencja, oparta na technikach uczenia automatycznego (machine learning), choć wciąż znajduje się na etapie pionierskim, już wprowadza znaczące zmiany w tkance społeczeństw, wywierając głęboki wpływ na kultury, zachowania społeczne i budowanie pokoju.
Rozwój, taki jak machine learning lub głębokie uczenie (deep learning), rodzi pytania, które wykraczają poza sferę technologii i inżynierii, i mają związek ze zrozumieniem, ściśle połączonym z sensem ludzkiego życia, podstawowymi procesami poznawczymi i zdolnością umysłu do dotarcia do prawdy.
Na przykład, zdolność niektórych urządzeń do tworzenia spójnych składniowo i semantycznie tekstów nie jest gwarancją rzetelności. Mówi się, że są one w stanie „oszałamiać”, to znaczy generować stwierdzenia, które na pierwszy rzut oka wydają się wiarygodne, ale w rzeczywistości są bezpodstawne lub zdradzają uprzedzenia. Stanowi to poważny problem, gdy sztuczna inteligencja jest wykorzystywana w kampaniach dezinformacyjnych, które rozpowszechniają fałszywe wiadomości i prowadzą do rosnącej nieufności wobec środków przekazu. Poufność, posiadanie danych i własność intelektualna to inne obszary, w których omawiane technologie stwarzają poważne zagrożenia, do których dochodzą dalsze negatywne konsekwencje ich niewłaściwego wykorzystania, takie jak: dyskryminacja, ingerencja w procesy wyborcze, szerzenie się modelu społeczeństwa, które monitoruje i kontroluje ludzi, wykluczenie cyfrowe, i pogłębianie się indywidualizmu coraz bardziej oderwanego od zbiorowości. Wszystkie te czynniki mogą podsycać konflikty i utrudniać pokój.
Nasz świat jest zbyt rozległy, różnorodny i złożony, by można go było w pełni poznać i sklasyfikować. Ludzki umysł nigdy nie będzie w stanie wyczerpać jego bogactwa, nawet z pomocą najbardziej zaawansowanych algorytmów. Nie oferują one bowiem gwarantowanych prognoz przyszłości, a jedynie statystyczne przybliżenia. Nie wszystko można przewidzieć, nie wszystko można obliczyć; w końcu „rzeczywistość przewyższa ideę i bez względu na to, jak wspaniałe mogą być nasze zdolności obliczeniowe, zawsze pozostanie niedostępna reszta, która wymyka się wszelkim próbom kwantyfikacji.
Ponadto duża ilość danych analizowanych przez sztuczne inteligencje nie jest sama w sobie gwarancją bezstronności. Kiedy algorytmy ekstrapolują informacje, zawsze istnieje ryzyko, że je wypaczą, powielając niesprawiedliwości i uprzedzenia środowisk, z których pochodzą. Im bardziej stają się szybsze i złożone, tym trudniej zrozumieć, dlaczego wyprodukowały określony rezultat.
Maszyny inteligentne mogą wykonywać przypisane im zadania z coraz większą wydajnością, ale cel i znaczenie ich działań będą nadal określane lub umożliwiane przez ludzi posiadających własny świat wartości. Istnieje ryzyko, że kryteria stojące za niektórymi wyborami staną się mniej jasne, że odpowiedzialność za podejmowanie decyzji zostanie ukryta, a producenci mogą uchylać się od obowiązku działania dla dobra wspólnoty. W pewnym sensie sprzyja temu system technokratyczny, który sprzymierza ekonomię z technologią i nadaje przywilej dla kryterium wydajności, ignorując wszystko, co nie jest związane z jego doraźnymi korzyściami.
Powinno to nas skłonić do refleksji nad aspektem, który jest bardzo często pomijany w dzisiejszej mentalności technokratycznej i wydajnościowej, jako decydujący dla rozwoju osobistego i społecznego: „poczucie ograniczeń”. Istocie ludzkiej, z definicji śmiertelnej, gdy myśli o przekroczeniu, dzięki technologii, wszelkich ograniczeń, grozi, iż będąc ogarniętą obsesją kontrolowania wszystkiego, utraci kontrolę nad sobą; w poszukiwaniu absolutnej wolności, wpadnie w spiralę dyktatury technologicznej. Rozpoznanie i zaakceptowanie własnej ograniczoności jako stworzenia, jest dla człowieka niezbędnym warunkiem osiągnięcia pełni, a raczej przyjęcia jej w darze. Natomiast w ideologicznym kontekście paradygmatu technokratycznego, ożywionego prometejskim założeniem samowystarczalności, nierówności mogą rosnąć nieproporcjonalnie, a wiedza i bogactwo gromadzić się w rękach nielicznych, z poważnym zagrożeniem dla społeczeństw demokratycznych i pokojowego współistnienia.
W przyszłości, wiarygodność osoby ubiegającej się o kredyt, przydatność danej osoby do pracy, prawdopodobieństwo recydywy osoby skazanej, lub prawo do otrzymania azylu politycznego, lub pomocy społecznej, mogą być determinowane przez systemy sztucznej inteligencji. Brak zróżnicowanych poziomów mediacji, które wprowadzają te systemy, jest szczególnie narażony na formy uprzedzeń i dyskryminacji: błędy systemowe mogą się łatwo mnożyć, powodując nie tylko niesprawiedliwość w indywidualnych przypadkach, ale także, poprzez efekt domina, rzeczywiste formy nierówności społecznej.
Co więcej, czasami formy sztucznej inteligencji wydają się zdolne do wpływania na decyzje jednostek, poprzez z góry określone opcje związane z bodźcami i środkami odstraszającymi lub poprzez systemy regulujące osobiste wybory w oparciu o organizację informacji. Te formy manipulacji lub kontroli społecznej wymagają uwagi i starannego nadzoru, oraz pociągają za sobą wyraźną odpowiedzialność prawną ze strony producentów, tych, którzy je stosują, oraz władz rządowych.
Poleganie na procesach automatycznych, które kategoryzują jednostki, na przykład poprzez wszechobecne wykorzystanie nadzoru lub przyjęcie systemów kredytu społecznego, może mieć również głębokie reperkusje dla tkanki obywatelskiej, ustanawiając niewłaściwe klasyfikacje wśród obywateli. Te sztuczne procesy klasyfikacji mogą również prowadzić do konfliktów władzy, ponieważ dotyczą nie tylko odbiorców wirtualnych, ale także osób z krwi i kości. Fundamentalny szacunek dla godności ludzkiej postuluje odrzucenie tego, aby utożsamiano wyjątkowość osoby ze zbiorem danych. Nie można pozwolić algorytmom: określać sposobu, w jaki rozumiemy prawa człowieka, odkładać na bok podstawowych wartości współczucia, miłosierdzia i przebaczenia lub eliminować możliwość, aby jednostka się zmieniła i pozostawiła przeszłość za sobą.
W tym kontekście nie możemy nie rozważyć wpływu nowych technologii w sferze zatrudnienia: prace, które kiedyś były wyłączną domeną siły roboczej, są szybko wchłaniane przez przemysłowe zastosowania sztucznej inteligencji. Również w tym przypadku istnieje znaczne ryzyko nieproporcjonalnej przewagi nielicznych, kosztem zubożenia wielu. Poszanowanie godności pracowników i znaczenie zatrudnienia dla dobrobytu ekonomicznego osób, rodzin i społeczeństw, bezpieczeństwo pracy i sprawiedliwe płace, powinny być wysokim priorytetem dla wspólnoty międzynarodowej, ponieważ te formy technologii przenikają coraz głębiej do miejsc pracy.
W dzisiejszych czasach, patrząc na otaczający nas świat, nie sposób uciec od poważnych kwestii etycznych związanych z przemysłem zbrojeniowym. Możliwość prowadzenia operacji wojskowych za pomocą systemów zdalnie sterowanych doprowadziła do zmniejszenia percepcji zniszczeń, jakie one powodują i odpowiedzialności za ich użycie, przyczyniając się do jeszcze zimniejszego i bardziej oderwanego podejścia do ogromnej tragedii wojny. Badania nad nowymi technologiami w dziedzinie tak zwanych „śmiercionośnych autonomicznych systemów uzbrojenia”, w tym nad wykorzystaniem wojennym sztucznej inteligencji, stanowią poważny problem etyczny. Autonomiczne systemy uzbrojenia nigdy nie mogą być podmiotami odpowiedzialnymi moralnie: unikalna ludzka zdolność do moralnej oceny i etycznego podejmowania decyzji jest czymś więcej niż złożonym zestawem algorytmów, a zdolności tej nie można sprowadzać do programowania maszyny, która, choć „inteligentna”, nadal jest maszyną. Z tego powodu konieczne jest zapewnienie odpowiedniego, znaczącego i spójnego ludzkiego nadzoru nad systemami uzbrojenia.
Nie możemy również lekceważyć potencjalnego ryzyka, że wyrafinowana broń wpadnie w niepowołane ręce, ułatwiając na przykład ataki terrorystyczne lub ingerencje mające na celu destabilizację prawowitych instytucji rządowych. Krótko mówiąc, świat naprawdę nie potrzebuje nowych technologii przyczyniających się do nieuczciwego rozwoju rynku i handlu bronią, promujących szaleństwo wojny. Czyniąc w ten sposób, nie tylko inteligencja, ale samo serce człowieka będzie narażone na ryzyko, że stanie się coraz bardziej „sztuczne”. Najbardziej zaawansowane aplikacje techniczne nie powinny być wykorzystywane do ułatwiania brutalnego rozwiązywania konfliktów, lecz do przygotowywania drogi do pokoju.
Z bardziej pozytywnej perspektywy, gdyby sztuczna inteligencja została wykorzystana do promowania integralnego rozwoju człowieka, mogłaby wprowadzić znaczące innowacje w rolnictwie, edukacji i kulturze, poprawić standardy życia całych narodów i ludów oraz przyczynić się do wzrostu ludzkiego braterstwa i przyjaźni społecznej. Ostatecznie, to, w jaki sposób wykorzystamy ją do włączenia najmniejszych, czyli naszych najsłabszych i najbardziej potrzebujących braci i sióstr, jest miarą ukazującą nasze człowieczeństwo.
Ludzkie spojrzenie i pragnienie lepszej przyszłości dla naszego świata prowadzą do potrzeby interdyscyplinarnego dialogu, mającego na celu etyczny rozwój algorytmów – algor-etykę – w którym wartości kierowałyby drogami nowych technologii. Kwestie etyczne powinny być brane pod uwagę od samego początku badań, a także na etapie testowania, projektowania, produkcji, dystrybucji i wprowadzenia na rynek. Jest to podejście etyki projektowania, w którym instytucje edukacyjne i decydenci mają do odegrania istotną rolę.
Rozwój technologii, która szanuje i służy ludzkiej godności, ma wyraźne implikacje dla instytucji edukacyjnych i świata kultury. Zwielokrotniając możliwości komunikacji, technologie cyfrowe umożliwiły spotkania na nowe sposoby. Istnieje jednak potrzeba stałej refleksji nad rodzajem relacji, do których nas kierują. Młodzi dorastają w środowiskach kulturowych przenikniętych technologią, co nie może nie budzić wątpliwości w zakresie metod nauczania i formacji.
Edukacja w zakresie korzystania z form sztucznej inteligencji powinna mieć na celu przede wszystkim promowanie krytycznego myślenia. Konieczne jest, aby użytkownicy w każdym wieku, a zwłaszcza ludzie młodzi, rozwijali umiejętność świadomego i wnikliwego korzystania z danych i treści gromadzonych w sieci lub tworzonych przez systemy sztucznej inteligencji. Szkoły, uniwersytety i towarzystwa naukowe są wezwane do pomocy studentom i profesjonalistom w uwzględnieniu społecznych i etycznych aspektów rozwoju i wykorzystania technologii.
Formacja, w zakresie korzystania z nowych narzędzi komunikacji, powinna uwzględniać nie tylko dezinformację, fałszywe wiadomości (tzw. fake news), ale także niepokojące odradzanie się „dawnych obaw, które [...] potrafiły się ukryć i umocnić swoją pozycję za nowymi technologiami”. Niestety, po raz kolejny musimy walczyć z „pokusą tworzenia kultury murów, wznoszenia murów [...], aby uniemożliwić [...] spotkanie z innymi kulturami, z innymi ludźmi”, oraz rozwój pokojowego i braterskiego współistnienia.
Globalny zasięg sztucznej inteligencji jasno pokazuje, że oprócz odpowiedzialności suwerennych państw za regulowanie jej wykorzystania we własnym kraju, decydującą rolę w zawieraniu porozumień wielostronnych oraz koordynowaniu ich stosowania i wdrażania mogą odegrać organizacje międzynarodowe. W związku z tym, zachęcam Wspólnotę Narodów, aby – zjednoczona – pracowała w celu przyjęcia wiążącego traktatu międzynarodowego, regulującego rozwój i wykorzystanie sztucznej inteligencji w jej różnorodnych formach. Celem regulacji powinno być, oczywiście, nie tylko zapobieganie złym praktykom, ale także zachęcanie do dobrych praktyk, stymulowanie nowych i kreatywnych koncepcji oraz ułatwianie inicjatyw osobistych i zbiorowych.
W ostatecznym rachunku, w poszukiwaniu modeli regulacyjnych, które mogłyby zapewnić twórcom technologii cyfrowych pewien przewodnik etyczny, konieczne jest wskazanie ludzkich wartości, które powinny leżeć u podstaw wysiłków społeczeństw na rzecz sformułowania, przyjęcia i zastosowania niezbędnych ram prawnych. Prace redakcyjne nad wytycznymi w zakresie etyki, dotyczącymi produkcji form sztucznej inteligencji, nie mogą pomijać głębszych kwestii odnoszących się do sensu ludzkiego istnienia, ochrony podstawowych praw człowieka oraz dążenia do sprawiedliwości i pokoju. Ten proces etycznego i prawnego rozeznania może okazać się cenną okazją do wspólnej refleksji nad rolą, jaką technologia powinna odgrywać w naszym życiu indywidualnym i wspólnotowym, oraz w jaki sposób jej wykorzystanie może przyczynić się do stworzenia bardziej sprawiedliwego i humanitarnego świata. Z tego powodu, w debatach na temat regulacji sztucznej inteligencji powinny być brane pod uwagę głosy wszystkich zainteresowanych stron, w tym ubogich, wykluczonych i innych, którzy często pozostają nieusłyszani w globalnych procesach decyzyjnych.
* * * * *
Mam nadzieję, że ta refleksja zachęci, do uczynienia wszystkiego, aby postępy w rozwoju form sztucznej inteligencji w ostateczności służyły sprawie ludzkiego braterstwa i pokoju. Nie jest to odpowiedzialność nielicznych, lecz całej rodziny ludzkiej. Pokój jest bowiem owocem relacji, które uznają i akceptują drugiego człowieka w jego niezbywalnej godności, a także owocem współpracy i zaangażowania w dążeniu do integralnego rozwoju wszystkich osób i wszystkich narodów.
Na początku Nowego Roku modlę się, aby szybki rozwój form sztucznej inteligencji nie powiększył zbyt wielu nierówności i niesprawiedliwości już obecnych na świecie, ale przyczynił się do zakończenia wojen i konfliktów oraz złagodzenia wielu form cierpienia, które dotykają rodzinę ludzką. Oby chrześcijanie, wyznawcy różnych religii, oraz mężczyźni i kobiety dobrej woli, zgodnie współpracowali, żeby wykorzystać szanse i sprostać wyzwaniom stawianym przez rewolucję cyfrową, oraz przekazać przyszłym pokoleniom bardziej solidarny, sprawiedliwy i pokojowy świat.
Watykan, 8 grudnia 2023 r.
FRANCISZEK
.