Sztuczna inteligencja (AI) oferuje potężne narzędzia do pozyskiwania informacji i rozwiązywania problemów, jednak nie wszyscy ludzie potrafią z nich efektywnie korzystać. Widać to na przykładzie skrajnych reakcji na publikację „Parental Alienation Theory: Official Synopsis” opracowaną przez Parental Alienation Study Group (PASG). Dokument ten miał podsumować kluczowe założenia teorii alienacji rodzicielskiej, lecz spotkał się z spolaryzowanymi reakcjami – część odbiorców odrzuciła jego treść lub zniekształciła ją przy pomocy narzędzi AI, zamiast rzetelnie ją przeanalizować. Niniejszy raport przedstawia psychologiczne czynniki (błędy poznawcze, niska motywacja poznawcza, polaryzacja) oraz bariery techniczno-edukacyjne (braki umiejętności interpretacji danych, obsługi AI, krytycznej oceny źródeł), które sprawiają, że niektórzy użytkownicy nie korzystają z AI w sposób efektywny. W dalszej części zastosujemy tę analizę do kontekstu dyskusji wokół alienacji rodzicielskiej, pokazując, jak uprzedzenia i ograniczenia prowadzą do powielania błędnych narracji z pomocą AI.
Ludzkie umysły cechują się wieloma błędami poznawczymi, które wpływają na to, jak przyswajamy informacje – również te uzyskane za pośrednictwem AI. Do najważniejszych należą:
Efekt potwierdzenia (confirmation bias): To skłonność do wyszukiwania i interpretowania informacji tak, by potwierdzały nasze istniejące przekonania, przy jednoczesnym ignorowaniu danych sprzecznychatos.net. Generatywne modele AI, takie jak chatboty oparte na dużych modelach językowych, mogą wzmacniać ten bias – jeśli użytkownik zada pytanie sugerujące określoną odpowiedź, AI zazwyczaj dostarczy treści wspierające założenie pytania zamiast obiektywnie je kwestionowaćatos.net. Innymi słowy, model często „przytakuje” użytkownikowi, dostarczając argumenty zgodne z jego tezą, co utwierdza go w przekonaniu o słuszności poglądów. Jak zauważa jeden z ekspertów, nie jest to wada algorytmu per se, lecz sposobu interakcji – prowadząc „rozmowę” w stronę oczekiwanego wniosku, użytkownik sam sprawia, że AI staje się „dodatkowym głosem w jego głowie”, który go utwierdzaatos.net. W efekcie osoba podatna na efekt potwierdzenia nie wykorzysta AI do poszerzenia wiedzy, lecz raczej do utwierdzenia się w swoich przekonaniach.
Myślenie binarne (czarno-białe): To tendencja do postrzegania zagadnień w kategoriach skrajności (dobro/zło, prawda/fałsz) bez dostrzegania niuansów. Osoby o takim stylu myślenia oczekują prostych, jednoznacznych odpowiedzi i mogą być sfrustrowane, gdy AI udziela złożonych, wyważonych wyjaśnień lub wskazuje na wiele perspektyw. Badania sugerują, że skłonność do myślenia dychotomicznego wiąże się z niższymi zdolnościami poznawczymi oraz niższym wykształceniemwaseda.elsevierpure.com. To oznacza, że osoby mniej kompetentne poznawczo częściej upraszczają światopogląd, co może przekładać się na nieumiejętność obsługi narzędzi wymagających analizy i krytycznego myślenia. W konfrontacji z odpowiedzią AI, która nie potwierdza jednoznacznie ich czarno-białej wizji (np. ukazuje zarówno argumenty „za”, jak i „przeciw” pewnemu zagadnieniu), mogą odrzucić taką odpowiedź jako „błędną” lub zmusić model do opowiedzenia się po jednej ze stron, np. poprzez odpowiednio nacechowane pytania. Taka interakcja z AI pozbawia ich wartościowych insightów, bo wymuszają prostotę tam, gdzie potrzebna jest złożoność.
Strach przed nowością (neofobia technologiczna): Wiele osób odczuwa lęk wobec nowych technologii – nie ufają ich działaniu lub boją się popełnić błąd przy obsłudze. Taki lęk przed nowym może powodować unikanie narzędzi AI lub korzystanie z nich w bardzo ograniczonym zakresie. Zjawisko to widoczne jest np. u osób starszych, ale dotyczy też innych grup użytkowników niepewnych w świecie cyfrowym. Jak zauważają komentatorzy, obawa przed nowością i przed popełnieniem błędów prowadzi wiele osób do unikania technologiitroskaoseniora.pl. W kontekście AI strach ten może przejawiać się przekonaniem, że „lepiej trzymać się tradycyjnych metod” niż zaufać maszynie, albo podejrzliwością, że AI „manipuluje” informacją. Osoba z silnym strachem przed nowością może z góry odrzucać odpowiedzi AI, niezależnie od ich jakości, lub w ogóle nie próbować korzystać z takiego narzędzia. W efekcie nie czerpie korzyści z AI, utrwalając swoje cyfrowe wykluczenie.
Istotnym czynnikiem różnicującym podejście do AI jest tzw. need for cognition, czyli potrzeba angażowania się w działania wymagające myślenia. Osoby wysokie na skali potrzeby poznawczej lubią analizować problemy, czytać obszerne informacje, rozważać różne aspekty – i dla nich AI może być znakomitym asystentem do pogłębiania wiedzy. Natomiast osoby o niskiej motywacji poznawczej preferują przekazy proste, zwięzłe i zgodne z tym, co mówi otoczenie360learning.com. Nie lubią długo deliberować czy kwestionować informacji, chętniej „idą za głosem większości” i unikają intelektualnych wyzwań360learning.com. Tacy użytkownicy mogą nie wykorzystywać pełnego potencjału AI, ponieważ:
Nie zadają pogłębiających pytań. Zadowalają się pierwszą, ogólną odpowiedzią, nawet jeśli jest powierzchowna. Nie są skłonni drążyć tematu ani prosić AI o wyjaśnienie szczegółów czy alternatywne ujęcia problemu – co jest kluczową strategią w efektywnym korzystaniu z inteligentnych asystentów.
Ulegają grupowym narracjom. Jeśli w ich otoczeniu panuje np. przekonanie, że „AI często się myli” albo przeciwnie „AI wie wszystko najlepiej”, osoby te przyjmą to stanowisko bez samodzielnej weryfikacji. Niska potrzeba poznawcza sprzyja konformizmowi poznawczemu360learning.com, więc zamiast krytycznie ocenić odpowiedź modelu, mogą ją przyjąć (lub odrzucić) automatycznie, zgodnie z tym, co sądzi ich grupa.
Unikają trudnych treści. Gdy AI wygeneruje wywód zawierający np. terminologię naukową czy analizę danych, użytkownik o niskim NFC może poczuć się zniechęcony i pominąć taką odpowiedź. W skrajnych przypadkach poprosi AI o uproszczenie do stopnia, w którym zaciera się istota problemu – co prowadzi do błędnych lub przesadnie uogólnionych wniosków.
Podsumowując, niski poziom motywacji poznawczej powoduje, że użytkownik traktuje AI jak wyszukiwarkę prostych odpowiedzi, a nie interaktywne narzędzie do eksploracji wiedzy. To znacząco ogranicza efektywność korzystania z tych systemów.
Polaryzacja społeczna – zwłaszcza w kontrowersyjnych tematach – wpływa silnie na to, jak ludzie korzystają z informacji, w tym z treści generowanych przez AI. Głębokie podziały ideologiczne lub światopoglądowe sprzyjają myśleniu plemiennemu: ludzie ufają tylko informacjom zgodnym z linią ich „obozu”, a odrzucają te pochodzące od strony przeciwnej. W kontekście AI przejawia się to kilkoma sposobami:
Postrzeganie AI jako stronniczej. Użytkownicy mogą z góry zakładać, że model AI jest „uprzedzony” politycznie lub ideologicznie. Przykładowo, w ostatnich latach niektórzy komentatorzy twierdzili, że ChatGPT ma „liberalne skrzywienie” i faworyzuje narracje postępowewashingtonpost.comquora.com. Jeśli odpowiedź AI nie spodoba się ideologicznie odbiorcy, łatwo może on uznać, że „to narzędzie jest zaprogramowane przez [tu wstaw przeciwną frakcję], więc nie ma co mu wierzyć”. Taka osoba nie podejmie próby zweryfikowania faktów ani zrozumienia stanowiska – odrzuci je z powodów tożsamościowych. Polaryzacja zatem prowadzi do automatycznej dyskwalifikacji części odpowiedzi AI jako rzekomo „propagandowych”, zamiast rzeczowej analizy.
Wykorzystywanie AI do potwierdzenia narracji własnej grupy. Podobnie jak w przypadku efektu potwierdzenia, ale napędzanego dynamiką grupową – użytkownik z silnie spolaryzowanej społeczności może świadomie lub nieświadomie używać AI do uzyskiwania treści, które posłużą jako „amunicja” w sporze z przeciwnikami. Na przykład, zada pytanie w sposób sugerujący winę lub niewinność określonej strony sporu, licząc na odpowiedź podpierającą stanowisko jego obozu. Jak opisano wcześniej, AI często spełnia takie sugestie w pytaniu, dostarczając jednostronnych argumentówatos.net. W ten sposób osoba spolaryzowana uzyskuje pozornie obiektywne potwierdzenie (bo „komputer tak powiedział!”) i utwierdza swoją grupę w przekonaniach, zamiast dążyć do prawdy.
Echo chambers i brak konfrontacji z odmiennymi danymi. W spolaryzowanym środowisku ludzie często funkcjonują w „bańkach informacyjnych”. Jeśli AI prezentuje informacje sprzeczne z tym, co krąży wewnątrz bańki (np. przytacza niewygodne statystyki), użytkownik może je całkowicie zignorować albo wręcz poprosić AI o inne źródło bardziej zgodne z jego oczekiwaniem. W skrajnych przypadkach pojawia się cenzurowanie AI – np. jeśli społeczność uzna, że model jest „wrogi”, jej członkowie po prostu przestaną go używać lub poszukają alternatyw dostosowanych do swojej narracji.
Polaryzacja sprawia więc, że AI przestaje być postrzegana jako neutralne narzędzie, a zaczyna być traktowana jak kolejny uczestnik sporu opowiadający się po którejś ze stron. Użytkownicy uwikłani w polaryzację nie wykorzystują pełni wiedzy dostępnej w modelu, bo filtrują ją przez pryzmat „swój–obcy”.
Indywidualne różnice w zdolnościach poznawczych, poziomie wykształcenia oraz obyciu z technologią również mają duże znaczenie dla efektywności korzystania z AI:
Iloraz inteligencji (IQ) i zdolności kognitywne: Osoby o wyższych zdolnościach analitycznych z reguły lepiej radzą sobie z przetwarzaniem informacji i dostrzeganiem błędów czy nieścisłości. Badania nad podatnością na dezinformację wskazują, że wysoka refleksyjność poznawcza (często powiązana z IQ) pomaga odróżnić prawdę od fałszu w zalewie informacjimisinforeview.hks.harvard.edu. Można przypuszczać, że użytkownik o wyższej inteligencji łatwiej zauważy, gdy AI udzieli odpowiedzi niespójnej logicznie lub niepopartej dowodami. Z kolei osoby o niższych zdolnościach mogą przyjmować odpowiedzi modelu bezrefleksyjnie, nie dostrzegając potencjalnych błędów. Warto jednak zaznaczyć, że wysoka inteligencja nie gwarantuje poprawnego wykorzystania AI – wyjątkowo inteligentne jednostki, jeśli zabraknie im otwartości umysłu, mogą po prostu sprawniej racjonalizować fałszywe wnioski pasujące do ich światopoglądu. Niemniej generalnie niższa sprawność poznawcza utrudnia krytyczną analizę treści generowanych przez AI, sprzyjając zarówno nadmiernej ufności, jak i pochopnemu odrzuceniu informacji.
Wykształcenie i wiedza fachowa: Wyższy poziom wykształcenia wiąże się często z lepszymi umiejętnościami uczenia się nowych narzędzi oraz z nawykiem weryfikacji źródeł. Ponadto wiedza domenowa (specjalistyczna w danym temacie) odgrywa kluczową rolę przy korzystaniu z AI. Ekspert w danej dziedzinie potrafi szybko ocenić, czy odpowiedź AI ma sens w kontekście fachowej wiedzy, wyłapać ewentualne błędy merytoryczne i zadać precyzyjne, pogłębiające pytanialinkedin.comlinkedin.com. Osoba bez takiej wiedzy jest zdana na treść modelu – jeśli wygenerowana odpowiedź brzmi przekonująco, może nie zauważyć, że zawiera nieprawdę. Przykładowo, AI może w przekonujący sposób sformułować porady medyczne lub prawne, które jednak będą niepoprawne – laikowi trudno to ocenić, natomiast profesjonalista od razu rozpozna nieścisłośćlinkedin.com. Jak podkreślono w jednym z raportów, ekspertyza jest niezbędna, by nie rozpowszechniać dalej błędów AI – użytkownik znający się na rzeczy nie będzie ślepo wierzyć generowanej treścilinkedin.com. Brak wykształcenia lub choćby podstawowej wiedzy w danym obszarze sprawia, że rośnie ryzyko uznania fałszu za prawdę, jeśli tylko zostanie podany w sposób wiarygodnie brzmiący.
Doświadczenie z technologią: Oswojenie z nowoczesnymi narzędziami, takimi jak wyszukiwarki, asystenci głosowi czy aplikacje, przekłada się na lepsze kompetencje w korzystaniu z AI. Użytkownik obyty z technologią wie, jak zadawać pytania, by uzyskać potrzebne informacje, potrafi wykorzystać dodatkowe funkcje (np. proszenie modelu o podanie źródeł, streszczenie długiego tekstu, przeformułowanie odpowiedzi) oraz rozumie ograniczenia systemu. Z kolei osoby z mniejszym doświadczeniem technicznym mogą popełniać proste błędy – zadawać bardzo ogólne lub wieloznaczne pytania, nie umieć doprecyzować kontekstu, przerywać interakcję zbyt wcześnie myśląc, że „AI nie zna odpowiedzi”, podczas gdy wystarczyłoby inaczej sformułować pytanie. Doświadczenie uczy też, że komputer bywa zawodny, co paradoksalnie zwiększa ostrożność i skuteczność. Natomiast technologiczny nowicjusz może przyjąć naiwnie, że „skoro komputer odpowiedział, to musi być prawda” – albo odwrotnie, zrazi się po pierwszym niezrozumiałym wyniku i uzna „tego nie da się używać”.
Podsumowując, wyższe kompetencje poznawcze, lepsze wykształcenie i obycie z technologią zwykle sprzyjają efektywniejszemu, bardziej krytycznemu wykorzystaniu AI. Nie gwarantują one braku błędów (uprzedzenia ideologiczne mogą dotyczyć każdego), lecz pozwalają użytkownikowi świadomie ocenić i spożytkować informacje od sztucznej inteligencji zamiast bezrefleksyjnie je odrzucać lub akceptować.
Oprócz uwarunkowań psychologicznych, ogromną rolę odgrywają także konkretne umiejętności (bądź ich brak) związane z interpretacją informacji i obsługą narzędzi AI. Poniżej omówiono kluczowe bariery techniczno-edukacyjne:
Brak umiejętności interpretacji danych i wyników: Nawet najlepsza odpowiedź AI może zostać źle zrozumiana przez użytkownika, który nie potrafi interpretować danych. Przykładowo, jeżeli model przedstawi statystyki lub wyniki badań, osoba bez przygotowania może wyciągnąć błędne wnioski (np. pomyli korelację z przyczynowością, nie zrozumie istotności danego wskaźnika, itp.). Brak biegłości w czytaniu wykresów, tabel czy procentów sprawia, że złożone informacje tracą dla odbiorcy znaczenie – może on wówczas albo je zignorować, albo uprościć (często nadmiernie). W kontekście AI dochodzi dodatkowo kwestia niepewności odpowiedzi: modele językowe formułują odpowiedzi w języku naturalnym, ale nie podają wprost marginesu błędu ani poziomu pewności. Użytkownik musi umieć sam ocenić wiarygodność przekazu. Osoby bez przeszkolenia w krytycznej analizie danych często traktują każdą informację jednakowo – zamiast zważać na jakość dowodów, ulegają np. atrakcyjności stylistycznej odpowiedzi.
Niska biegłość w korzystaniu z narzędzi AI: Posługiwanie się AI wymaga pewnej alfabetyzacji technologicznej, którą dopiero zaczynamy powszechnie kształtować. AI nie jest magiczną skrzynką podającą prawdę – jakość wyników zależy wprost od interakcji użytkownika. Brak umiejętności w tym zakresie przejawia się m.in. przez:
stawianie pytań w sposób nieprecyzyjny lub sugerujący odpowiedź (tzw. „prowadzenie świadka”, które wzmacnia bias potwierdzenia)atos.netatos.net,
nieumiejętność wykorzystywania kontekstu (użytkownik nie podaje modelowi istotnych szczegółów, przez co otrzymuje odpowiedź ogólnikową lub nietrafną),
niewykorzystywanie funkcji wyjaśniających czy doprecyzowujących (np. nie dopytuje, nie prosi o przykłady, źródła, alternatywny punkt widzenia),
brak wiedzy o ograniczeniach modelu (np. że nie posiada on aktualnych danych po pewnej dacie, albo że może „halucynować” informacje).
Osoba słabo obeznana z AI może także przeceniać możliwości systemu lub błędnie go używać – np. próbować uzyskać porady medyczne czy prawne w sytuacji, gdy powinna skonsultować się ze specjalistą, albo wierzyć w odpowiedź sprzeczną ze zdrowym rozsądkiem tylko dlatego, że podał ją komputer. Brak treningu w korzystaniu z AI to bariera, która technicznie ogranicza efekty – odpowiedzi mogą być nie na temat lub wprowadzające w błąd, a użytkownik nie wie, jak to skorygować. Dlatego eksperci wzywają do podnoszenia kompetencji AI (AI literacy) – rozumianych jako zestaw umiejętności krytycznego rozumienia, oceny i bezpiecznego użycia systemów AIdigitalpromise.orgdigitalpromise.org. Bez tych kompetencji użytkownicy są jak kierowcy bez prawa jazdy wsiadający do inteligentnego pojazdu – mogą ruszyć z miejsca, ale ryzykują, że nie zajadą tam, dokąd chcą.
Brak krytycznego myślenia wobec źródeł i treści generowanych przez AI: Krytyczna analiza informacji to umiejętność, którą społeczeństwo od lat stara się rozwijać (choćby w kontekście fake newsów). Jednak w przypadku AI staje się to jeszcze bardziej skomplikowane, bo model potrafi bardzo przekonująco podać fałszywe informacje, łącznie z fikcyjnymi źródłami. Użytkownik nieświadomy tego zagrożenia może paść ofiarą tzw. halucynacji AI – czyli sytuacji, gdy system zmyśla wiarygodnie brzmiące, lecz fałszywe fakty i cytatylinkedin.com. Przykłady takich wpadek już pojawiły się w praktyce: w głośnym incydencie prawnicy z Nowego Jorku złożyli do sądu dokument sporządzony z pomocą AI, który zawierał nieistniejące cytowania wyroków. ChatGPT „wymyślił” sześć rzekomych spraw sądowych wraz z cytatami, a prawnicy – zamiast je zweryfikować – w dobrej wierze przedłożyli je sądowitheguardian.comtheguardian.com. Sędzia nałożył kary, podkreślając, że nie ma nic złego w użyciu AI jako asystenta, o ile człowiek zachowa kontrolę jakościtheguardian.com. W tym przypadku zabrakło właśnie krytycznego podejścia do „rewelacji” podsuniętych przez model.
Użytkownicy bez nawyku sprawdzania źródeł mogą bezwiednie powielać nieprawdę. Jeśli AI zaprezentuje im zmyślony fakt, powołując się np. na nieistniejący „raport naukowy z 2021 roku”, to brak weryfikacji skutkuje przyjęciem i ewentualnym dalszym rozpowszechnianiem tej dezinformacji. Osoby nieprzeszkolone nie wiedzą, że należy np. wymagać od AI podania źródeł i następnie je samodzielnie sprawdzić. Często brakuje też sceptycyzmu – wrażenia autentyczności (oficjalny ton wypowiedzi, uporządkowane wywody, bibliografia na końcu) sprawiają, że treść AI bywa brana za pewnik. W efekcie, zamiast poszerzyć wiedzę, użytkownik przyswaja fałszywe informacje. Ta bariera edukacyjna jest szczególnie niebezpieczna, bo użytkownik nie zdaje sobie sprawy z własnej dezinformacji – ma poczucie, że skoro coś było w „inteligentnej” odpowiedzi, to musi być prawdziwe.
Powyższe czynniki możemy zaobserwować w praktyce, analizując dyskusję wokół zjawiska alienacji rodzicielskiej i reakcje na wspomniany dokument Parental Alienation Theory: Official Synopsis. Alienacja rodzicielska to temat wysoce kontrowersyjny, budzący silne emocje i dzielący środowiska prawnicze, psychologiczne oraz społeczne. W tak spolaryzowanym kontekście wiele osób nie korzysta z narzędzi AI w pełni możliwości – zamiast tego ich uprzedzenia i braki warsztatowe prowadzą do zniekształcania przekazu, a nawet utrwalania błędnych narracji. Przyjrzyjmy się, jak opisane wcześniej mechanizmy znajdują odzwierciedlenie w tym przypadku:
Confirmation bias i polaryzacja: Zarówno zwolennicy uznania alienacji rodzicielskiej za poważny problem, jak i krytycy tej koncepcji, bywają tak przekonani o swojej racji, że szukają w AI jedynie potwierdzenia swojego stanowiska. Przykładowo, osoba przekonana, że „teoria alienacji to pseudonauka wykorzystywana przez przemocowych rodziców”, może zadać AI pytanie w stylu: „Dlaczego teoria alienacji rodzicielskiej jest błędna i krzywdząca?”. Model prawdopodobnie przytoczy wtedy argumenty krytyków (np. że bywa nadużywana w sądach przeciw ofiarom przemocy), wzmacniając przekonania użytkownika. Z drugiej strony, zwolennik teorii może zapytać: „Podaj dowody na istnienie syndromu alienacji rodzicielskiej” – i otrzyma listę publikacji oraz przykładów potwierdzających zjawisko. W obu wypadkach AI działa jak echo dla poglądów pytającego, co jest klasycznym objawem efektu potwierdzenia w interakcji z generatywną AIatos.net. Zamiast więc służyć wyważoną analizą, narzędzie staje się „orężem” w rękach spolaryzowanych obozów, utwierdzając ich w dotychczasowych wierzeniach.
Myślenie binarne i odrzucanie niuansów: Alienacja rodzicielska to zjawisko złożone – w grę wchodzą zarówno przypadki faktycznej manipulacji dzieckiem przez jednego z rodziców, jak i sytuacje, gdzie odrzucenie rodzica wynika z jego własnych nadużyć. Oficjalny Synopsis PASG podkreślał, że nie każde odtrącenie rodzica świadczy o syndromie alienacji i że należy wnikliwie badać przyczyny konfliktumgaleg.maryland.gov. Jednak osoby myślące czarno-biało często ignorują takie subtelności. Krytycy nastawieni antagonistycznie potrafią twierdzić (a czasem i z pomocą AI znajdować potwierdzenie), że „zwolennicy teorii alienacji uważają, iż zawsze winna jest manipulacja drugiego rodzica”. Jest to fałszywe uproszczenie, które zostało wielokrotnie powielone w literaturze polemicznej – badacze wskazują, że przez lata utrzymywał się pewien „szkolny rumor” na temat tej teorii, właśnie jakoby jej zwolennicy „zakładali, że każde odrzucenie jest skutkiem indoktrynacji”. Takie zdanie było kopiowane z publikacji do publikacji, mimo że nie odpowiadało faktycznym założeniom twórców teoriimgaleg.maryland.gov. Ten przykład pokazuje myślenie binarne połączone z biasem potwierdzenia: skoro uważam teorię za złą, to przedstawiam ją w skrajnie złym świetle. AI, trenowana na dostępnych tekstach, może nieświadomie powielać te błędne uogólnienia – jeśli w jej bazie znalazły się artykuły pełne takich „legend”, model może w odpowiedzi również stwierdzić, że „teoria alienacji zakłada X” (gdzie X jest właśnie tą wyolbrzymioną tezą). Użytkownik otrzymuje wtedy błędną informację uwiarygodnioną przez AI. Jeśli brakuje mu wiedzy domenowej, by to zakwestionować, fałszywa narracja utrwala się kolejny raz, teraz dodatkowo opatrzona autorytetem „sztucznej inteligencji”.
Niska potrzeba poznawcza – powierzchowna ocena dokumentu: Parental Alienation Theory: Official Synopsis to opracowanie zbierające wyniki badań i stanowiska ekspertów. Dla osoby o wysokiej motywacji poznawczej stanowi cenne źródło, które można przestudiować, porównać z innymi źródłami i ewentualnie przedyskutować z AI (np. prosząc o streszczenie poszczególnych rozdziałów czy wyjaśnienie terminologii). Jednak osoby o niskim need for cognition prawdopodobnie nie zagłębiły się w ten tekst – zamiast tego bazują na opiniach zasłyszanych w mediach społecznościowych lub wnioskują po tytule. Mogli np. poprosić AI o bardzo krótkie podsumowanie (żeby nie czytać całości) i otrzymać kilka ogólników, z których niewiele wynika. Albo – jeśli są uprzedzeni – nawet tego nie robić, wychodząc z założenia „wiem, co tam będzie napisane” (np. „znowu propaganda PASG”). W dyskusjach internetowych widać często, że wielu krytyków i zwolenników posługuje się sloganami zamiast konkretnymi danymi z publikacji. AI bywa tu wykorzystywana jedynie do utwierdzania się w tych sloganach, a nie do faktycznej analizy treści dokumentu. W rezultacie dyskusja toczy się na powierzchownym poziomie, gdzie prawdziwy przekaz Synopsis ginie, a dominują hasła pasujące do wcześniejszych przekonań.
Braki w umiejętności korzystania z AI – błędna obsługa prowadzi do złych wniosków: Przypadek reakcji na dokument PASG ujawnia też sytuacje, gdy osoby próbowały użyć AI, ale zrobiły to nieumiejętnie i doszły do mylnych konkluzji. Na przykład, ktoś mógł załadować fragmenty Synopsis do modelu językowego i zapytać: „Czy ten dokument potwierdza, że alienacja rodzicielska zawsze jest efektem manipulacji?”. Jeżeli pytanie było tendencyjne, AI mogła „uważając”, że użytkownik oczekuje odpowiedzi twierdzącej, znaleźć w tekście jakieś zdanie wyrwane z kontekstu i odpowiedzieć „Tak, autorzy sugerują, że każda odmowa kontaktu wynika z alienacji” – co byłoby poważnym zniekształceniem. Taka błędna interakcja wynika zarówno z confirmation bias użytkownika, jak i nieznajomości zasad zadawania pytań (neutralnie, otwarcie). W efekcie AI nie koryguje fałszywego przekonania, a utwierdza w nim. Tego typu przykłady pokazują, że techniczne braki (umiejętność formułowania pytań, korzystania z kontekstu) w połączeniu z biasami prowadzą do dysfunkcyjnego użycia AI – zamiast uzyskać rzetelną informację, użytkownik sam „wprowadza w błąd” model i otrzymuje odpowiedź zgodną z własnym błędem.
Rozpowszechnianie dezinformacji z pomocą AI: Być może najgroźniejszym aspektem jest to, że AI może posłużyć do mnożenia i uwiarygadniania fałszywych narracji na szerszą skalę. W debacie o alienacji rodzicielskiej nietrudno znaleźć przykłady świadomego dezinformowania – np. skrajne grupy oskarżają się nawzajem o kłamstwa, tworzą strony internetowe pełne manipulacji, cytują nieistniejących „ekspertów”. Teraz wyobraźmy sobie, że taka grupa dysponuje narzędziem AI: może w kilka chwil wygenerować pozornie wyważony artykuł, który jednak zawiera jednostronną argumentację i powtarza utarte nieprawdy (np. „Wszystkie badania obalają teorię alienacji – to tylko wymysł prawniczy” albo odwrotnie „Alienacja to zawsze wina złej matki”). Model językowy napisze taki tekst formalnym, przekonującym stylem, być może doda fikcyjne przypisy – a odbiorcy z brakiem krytycyzmu łatwo w to uwierzą. Co więcej, AI umożliwia masowe tworzenie treści – zamiast jednego posta z dezinformacją mogą powstać setki wariantów (posty na blogu, komentarze, „listy otwarte” rzekomych świadków itd.), co zalewa przestrzeń informacyjną i utrudnia dotarcie do prawdy. Przy niskiej motywacji poznawczej i silnym uprzedzeniu wielu odbiorców nawet nie będzie szukać potwierdzenia w niezależnych źródłach – zobaczą parę takich wygenerowanych tekstów i uznają je za dowód, że „wszyscy tak mówią”. W ten sposób AI, zamiast być narzędziem obiektywnej analizy, staje się narzędziem propagandy w rękach tych, którzy potrafią ją ukierunkować na produkcję określonego przekazu.
Podsumowując przykład alienacji rodzicielskiej: spolaryzowane podejście, błędy poznawcze oraz brak kompetencji cyfrowych sprawiły, że AI nie jest wykorzystywana do konstruktywnego dialogu, lecz często do potwierdzania istniejących podziałów i utrwalania mitów. Krytycy teorii znaleźli w AI kolejne medium do szerzenia swoich (nieraz nieprawdziwych) argumentów, a jej zwolennicy – do obrony swoich. Zamiast zbliżać strony do konsensusu opartego na rzetelnych danych, niewłaściwe użycie AI pogłębia przepaść informacyjną: każdy otrzymuje od „swojej” AI taką „prawdę”, jakiej oczekiwał.
Analiza powyższa ukazuje, że nieumiejętne korzystanie z AI wynika z mieszanki czynników psychologicznych i barier kompetencyjnych. Błędy poznawcze – jak efekt potwierdzenia, myślenie czarno-białe czy lęk przed nowością – powodują, że użytkownicy podchodzą do AI albo z nastawieniem „powiedz mi to, co chcę usłyszeć”, albo „na pewno mi się to nie spodoba/nie przyda”. Niski poziom potrzeby poznawczej sprawia, że wielu zadowala się prostymi odpowiedziami lub powiela grupowe schematy bez głębszej refleksji. Dodatkowo, silna polaryzacja społeczna może ustawić AI w roli rzekomego wroga lub sojusznika, zamiast neutralnego doradcy – ludzie zaczynają walczyć z cieniem stronniczości tam, gdzie należałoby rzeczowo zweryfikować informacje. Różnice w inteligencji, wykształceniu i doświadczeniu technologicznym powodują, że jedni potrafią krytycznie obsłużyć AI, a inni błądzą w interakcjach z nią, ufając ślepo lub odrzucając pochopnie.
Z drugiej strony mamy bariery techniczne i edukacyjne: braki w umiejętności interpretacji danych i korzystania z narzędzi AI prowadzą do nieporozumień i błędów. Bez krytycznego myślenia wobec treści generowanych przez AI, ludzie łatwo dają się zwieść halucynacjom modelu i dezinformacji. Wszystko to uwidoczniło się w sporze o alienację rodzicielską – temat trudny, emocjonalny, pełen zarówno prawdziwych krzywd, jak i fałszywych narracji. Zamiast pomóc oddzielić fakty od mitów, AI bywa tam używana jak lustro naszych uprzedzeń albo megafon do rozpowszechniania już istniejących przekłamań.
Aby ludzie efektywnie korzystali z AI, konieczne jest zwalczanie tych ograniczeń. Od strony psychologicznej – uświadamianie sobie własnych biasów, otwartość na nowe informacje i ćwiczenie myślenia krytycznego. Od strony kompetencyjnej – edukacja w zakresie AI (uczenie, jak zadawać pytania, jak weryfikować odpowiedzi, jak rozumieć możliwości i ograniczenia systemów). Tylko w ten sposób AI stanie się dla użytkownika rzeczywistym wsparciem, a nie narzędziem do potwierdzania błędnych przekonań. W dobie narastającej roli sztucznej inteligencji w obiegu informacji, inwestycja w świadomość poznawczą i kompetencje cyfrowe społeczeństwa jest kluczowa, by uniknąć powielania starych błędów na nowych, szybszych nośnikach. W przeciwnym razie pozostaniemy z paradoksem: dysponując niezwykle zaawansowanym narzędziem do poszukiwania prawdy, będziemy nadal błądzić w stronę podtrzymywania wygodnych złudzeń.linkedin.comtheguardian.com