Nastolatki uczyniły ChatGPT swoim osobistym dziennikiem, ale niebezpieczeństwo jest oczywiste: „Może to sprzyjać izolacji i przyzwyczajać młodych ludzi do nieakceptowania sprzeczności, zamykając ich w bańkach potwierdzenia”.

Badacz analizuje, w jaki sposób sztuczna inteligencja staje się nowym powiernikiem nastolatków oraz jakie emocjonalne i społeczne zagrożenia się z tym wiążą.

Od dawna nastolatki wyrażają swoje emocje w osobistych dziennikach, blogach lub rozmowach z przyjaciółmi. Dzisiaj jednak nie wahają się otworzyć przed sztuczną inteligencją. Jest to praktyka, którą należy wziąć pod uwagę, aby zapobiec związanym z nią zagrożeniom.

Duże modele językowe, takie jak ChatGPT, i specjalistyczne platformy, takie jak Replika — gdzie można nawet spersonalizować sztuczną inteligencję, nadając jej imię lub głos — stopniowo stają się powiernikami w świecie nastolatków. Zawsze dostępne, zdolne do udzielania odpowiedzi bez osądzania i oferujące iluzję uważnego słuchania, przyciągają młodych ludzi poszukujących pocieszenia lub wskazówek.

Jednak ta pozorna życzliwość nie jest pozbawiona zagrożeń: uzależnienia emocjonalnego, narażenia na nieodpowiednie, a nawet niebezpieczne odpowiedzi oraz osłabienia poufności danych osobowych.

Zjawisko to, wciąż szeroko niedoceniane, ujawnia pojawienie się nowej wrażliwości, która wymaga większej czujności. Jak zrozumieć, że ekspresja intymności nastolatków przenosi się na te algorytmiczne urządzenia? Jakie są tego implikacje komunikacyjne, psychospołeczne i etyczne?

Od pamiętnika do chatbota: ewolucja zwierzeń nastolatków

Poufność nastolatków, która przez długi czas była zarejestrowana w dzienniku osobistym, wymianie między przyjaciółmi lub dialogu z zaufanymi dorosłymi, obecnie przenosi się do urządzeń technologicznych. Obserwujemy tutaj formę odwróconej relacji paraspołecznej: chatbot daje iluzję wzajemności i empatycznego słuchania, chociaż jego odpowiedzi opierają się wyłącznie na logice algorytmicznej.

Według ankiety około 72% nastolatków w Stanach Zjednoczonych korzystało już z „towarzysza AI”. Ponad połowa (52%) robi to regularnie, a 13% codziennie. Dominują rozrywka (30%) i ciekawość (28%), ale znaczna część użytkowników zagłębia się w sferę intymną: szukają porad (14%), a przede wszystkim możliwości zwierzenia się z tego, czego nie odważyliby się powiedzieć swoim bliskim (12%).

80% młodych ludzi korzysta już ze sztucznej inteligencji w codziennym życiu

Dane te odzwierciedlają niemal niewidoczną, ale stałą obecność sztucznej inteligencji w życiu codziennym. Niedawne badanie potwierdza tę tendencję we Francji: 80% młodych ludzi korzysta już ze sztucznej inteligencji w codziennym życiu, chociaż 93% twierdzi, że nigdy nie zastąpi ona interakcji międzyludzkich.

Prawie co piąty młody człowiek wypróbował już sztuczną inteligencję konwersacyjną, taką jak Character.AI lub chatbot MyAI firmy Snapchat. Systemy te są wykorzystywane głównie jako „wirtualni towarzysze” (28%) lub „trenerzy psychologiczni” (16%). Dla wielu nastolatków stanowią one doraźne lekarstwo na samotność (35%) lub nudę (41%).

Dane wskazują, że około 75% nastolatków miało już kontakt z „wirtualnym towarzyszem AI”, czy to w celu rozmowy, flirtowania, czy poszukiwania wsparcia emocjonalnego. Ogólnie rzecz biorąc, takie zastosowania spełniają trzy główne funkcje:

  • Regulacja emocjonalna: wyrażanie niepokoju i werbalizowanie wątpliwości.
  • Praktyczne i intymne doradztwo: porady dotyczące związków miłosnych, seksualności lub konfliktów rodzinnych.
  • Eksternalizacja jaźni: rodzaj cyfrowego pamiętnika lub rozmowy bez osądzania.

Praktyki te dotyczą przede wszystkim osób z pokolenia digital natives, które są bardzo aktywne w sieci, ale także nastolatków, którzy wahają się przed otwarciem się przed najbliższymi. Ponadto ankieta przeprowadzona przez Odoxa pokazuje, że młodsze osoby bardziej ufają sztucznej inteligencji, podczas gdy starsze wyrażają pewną ostrożność.

Obserwujemy tu klasyczną logikę opisaną w naukach o komunikacji: technologia wypełnia lukę pozostawioną przez komunikację międzyludzką postrzeganą jako niewystarczająca.

Wiele zagrożeń

Po pierwsze, wykazano, że niektórzy nastolatkowie rozwijają prawdziwe uczucia wobec sztucznej inteligencji, co może zaburzyć ich oczekiwania dotyczące relacji i stwarza ryzyko emocjonalne.

Należy również wziąć pod uwagę ryzyko społeczne, ponieważ masowe korzystanie z chatbotów może sprzyjać izolacji i przyzwyczajać młodych ludzi do nieakceptowania sprzeczności, zamykając ich w bańkach potwierdzających.

Ponadto badania pokazują, że duże modele językowe mogą generować błędne lub stronnicze odpowiedzi (tzw. „halucynacje”), co zwiększa ryzyko złych wskazówek.

Interakcja z konwersacyjną sztuczną inteligencją może stać się czynnikiem pogarszającym sytuację osób wrażliwych, zwłaszcza nieletnich lub osób z poważnymi zaburzeniami psychicznymi.

Medializacja przypadków, w których chatboty podżegały do przemocy lub samobójstwa, podkreśla krytyczne ryzyko związane z tymi technologiami. Epizody te pokazują, że interakcja z konwersacyjną sztuczną inteligencją może stać się czynnikiem pogarszającym sytuację osób wrażliwych, zwłaszcza nieletnich lub osób z poważnymi zaburzeniami psychicznymi.

Do tego dochodzi ryzyko ujawnienia życia prywatnego i śledzenia cyfrowego, pogłębione przez wiek i nieznajomość warunków użytkowania, co zwiększa ryzyko informacyjne.

Nastolatki powierzają swoją prywatność systemom algorytmicznym zaprojektowanym przez podmioty prywatne, których celem nie jest wsparcie psychologiczne, ale gromadzenie i monetyzacja danych. Badania pokazują, że pamięć cyfrowa nigdy nie jest neutralna: zachowuje, filtruje i rekonfiguruje ślady. W tym przypadku archiwizuje i kształtuje subiektywność nastolatków, głęboko kwestionując ich tożsamość i relacje.

Co zrobić w obliczu tej nowej wrażliwości?

W tej sytuacji całkowity zakaz wydaje się iluzoryczny. Proponuje się trzy bardziej realistyczne kierunki działania:

1. Regulacje techniczne, które obejmują mechanizmy ochrony specjalnie przeznaczone dla nieletnich (przekierowanie do zasobów ludzkich, wzmocniona moderacja).

2. Edukacja w zakresie komunikacji, aby nauczyć młodzież, nauczycieli i rodziców dekodowania i kontekstualizacji tych zastosowań.

3. Wspólne zarządzanie angażujące rodziny, szkoły, instytucje zdrowotne i platformy technologiczne w celu stworzenia odpowiednich norm.

W kierunku intymności pod wpływem

Masowe wykorzystanie sztucznej inteligencji wpływa nie tylko na rozwój psychologiczny młodych ludzi, ale także na rekonfigurację systemów zaufania w naszych społeczeństwach. Autentyczność relacji międzyludzkich ustępuje miejsca sztucznej formie relacji paraspołecznych, kształtowanej przez logikę techniczną i ekonomiczną.

W obliczu tej zmiany paradygmatu trzy obszary działania stają się niezbędne:

  • Naukowy, aby rygorystycznie dokumentować skalę i wpływ tych zastosowań.
  • Pedagogiczny, aby zapewnić młodzieży odpowiednią wiedzę emocjonalną i cyfrową.
  • Polityczny, aby regulować praktyki platform i chronić prawa nieletnich.

Nie chodzi więc o to, czy nastolatki będą nadal ufać sztucznej inteligencji – bo już to robią – ale o to, w jakich warunkach to zaufanie będzie mogło być wysłuchane bez narażania ich autonomii i zdrowia psychicznego na poważne ryzyko.

Emily/ author of the article

Uzależniona od optymalizacji i newsów. Wierzę, że każdego dnia można uczynić choć odrobinę lepszym.

Loading...
therest