Reklama

Ismena Dąbrowska: Akcja oscarowego filmu „Her” Spike’a Jonze’a sprzed 13 lat dzieje się w 2025 roku. Samotny pisarz wchodzi w relację z wirtualną asystentką. Patrząc z dzisiejszej perspektywy, na ile to, co pokazano na ekranie, się spełniło?

Reklama

Aleksandra Przegalińska: Zawsze lubiłam ten film, bo wydawał mi się dużo spokojniejszy niż wszystkie te straszne produkcje na temat sztucznej inteligencji, która wchodzi w konflikt z człowiekiem, mści się, chce go zniszczyć. Jonze zaproponował inną, nie dystopijną, bardziej wysubtelnioną wersję tej relacji. Żadna wizja popkulturowa nie realizuje się w 100 proc. Nie mamy więc dziś do czynienia z asystentką pokroju filmowej Samanthy, która rozwija świadomość, przez co rozmowa z nią jest praktycznie rozmową z człowiekiem. Ma jakąś formę inteligencji afektywnej, emocjonalnej, dużo bardziej rozbudowaną. Natomiast w jakimś sensie jest to film proroczy, bo rzeczywiście w 2025 mamy asystentów AI, którzy rozmawiają na poziomie człowieka. Nie mają świadomości, własnej woli, nie podejmują własnych działań, ale potrafią prowadzić konwersacje tak, że czasem łatwo zapomnieć, że chodzi o AI. Przypominamy sobie o tym, gdy pojawiają się ich ograniczenia, bo są to cały czas modele pracujące na bazie statystyki, karmione interakcjami ludzi.

Ich emocje są sztuczne, nie są przykładem tego, co ten system czuje. Śmiech czy flirtujący głos to pewnego rodzaju zabiegi.

Mówisz, że sztuczna inteligencja nie posiada cech ludzkich, jak np. własna wola, a mimo to coraz więcej osób wchodzi w związki, zakochuje się, tworzy relacje przyjacielskie z AI. Dlaczego?

Myślę, że ludzie mają bardzo głębokie potrzeby społeczne niezależnie od tego, czy są młodsi, starsi, skąd pochodzą. Jesteśmy istotami społecznymi i szukamy interakcji. Mam kilka hipotez co do tego, dlaczego ludzie to robią. Jedna to oczywiście ciekawość i pewnego rodzaju możliwość kontroli, bo możesz stworzyć sobie asystenta według własnych marzeń. Z ludźmi tak się nie da. Jasne, możesz spotkać osoby absolutnie cudowne w swoim życiu, zakochać się albo zaprzyjaźnić, ale każda z nich ma swoją suwerenność. A tutaj tworzysz sobie od podstaw coś, co według ciebie jest najlepszą możliwą wersją takiego przyjaciela. To też może wynikać z tego, że jesteśmy w kryzysie samotności, co mocno ujawnił covid.

Miały łączyć w pary, a oddaliły nas od siebie jeszcze bardziej. Aplikacje wyludniają się w ekspresowym tempie

Aplikacje randkowe wyludniają się w ekspresowym tempie, a z poszukiwania miłości online najczęściej rezygnują kobiety, sfrustrowane niepowodzeniami i przerażone skalą nadużyć. Jak technologia, która miała połączyć nas w pary, ostatecznie jeszcze bardziej nas od siebie oddaliła?
Getty Images/Maria Korneeva

I coraz trudniej jest nam nawiązywać relacje.

Zwłaszcza że internet nie spełnił swoich obietnic odnośnie do fajnych i zdrowych interakcji. To, co dzieje się w sieci – mobbing, hejt, dokuczanie sobie nawzajem – może bardziej kierunkować ludzi w stronę asystentów, którzy są jakąś bezpieczną przystanią, gdzie nikt cię nie skrzywdzi, nie powie nieprzyjemnych, przykrych rzeczy. Te modele co do zasady są zbudowane tak, aby wspierać, pomagać, nie krzyczą na nas, nie odzywają się wulgarnie. Chyba że sobie tego życzymy. A internet, media społecznościowe okazały się dla wielu osób rozczarowaniem, gdzie kontakty są często anonimowe, zdawkowe i nieraz po prostu nieprzyjemne. Najczęściej też osoby, które zakochują się w wirtualnych asystentach, są samotne, poszukują, mają mało przyjaciół czy tzw. social anxieties. Kiedy moi studenci i studentki pytają, dlaczego ludzie w ogóle chcą randkować z takimi asystentami, podaję im za przykład posyłanie sobie listów w XIX wieku. Ludzie, nie widząc się, latami konwersowali z jakimś wyobrażeniem drugiej osoby. Pisali listy do człowieka, z którym nie mieli codziennego kontaktu, a byli w nim zakochani. Mamy więc w sobie zdolność wyobrażania sobie pewnych rzeczy, ludzie przecież zakochują się w swoich idolach.

Dlaczego tworzymy asystentów, którzy mają z nami rozmawiać? Bo to robimy sami ze sobą. A to narzędzie, zamiast być substytutem relacji, mogłoby wspierać nas w poprawie komunikacji

Czyli będzie to coraz bardziej popularne zjawisko?

Myślę, że tak, bo ta technologia jest już dosyć sprawna jako taki towarzysz. Chociaż ostatnio słuchałam podcastu „The New York Times”, w którym jeden z dziennikarzy „zrobił” na próbę bodajże sześciu najróżniejszych AI-owych przyjaciół. I o ile na początku wyglądało to według niego fajnie, o tyle po jakimś czasie okazało się drogą donikąd. Zaczął opowiadać im jakieś głupoty, że np. postanowił zbudować sierociniec. Na co oni, że jest wspaniałą osobą, cudownie, że chce to zrobić. Potem powiedział im, że jednak chce zburzyć ten sierociniec i pieniądze przekierować na inną inwestycję. I ten wirtualny przyjaciel powiedział, że rozumie, że to przykre, ale ma prawo realizować swoje cele. Prawdziwy przyjaciel powiedziałby ci raczej, że jesteś gnojkiem (śmiech).

Ludziom czasami trudno jest przyjąć, że inni mają coś przykrego o nas do powiedzenia, ale nie uważam, że to dobrze, że taki ChatGPT staje się bezpieczną przestrzenią komunikacji. Że „nawalamy” jako społeczeństwo, więc przenieśmy się wszyscy na konwersacje z AI.

Czy to w takim razie dobrze, że pokładamy tak duże, wręcz ludzkie nadzieje w sztucznej inteligencji? Dobrze, że mamy asystentów AI, bo pod wieloma względami mogą nas wspierać. Zawodowo, jako coache, w edukacji, nauce języków, bo to jest suma naszej kolektywnej wiedzy, taka interaktywna encyklopedia. Można sobie z ich pomocą potrenować wystąpienia publiczne, negocjacje czy ogólnie komunikację, ale nie dlatego, że z ludźmi nie da się już rozmawiać. Wręcz przeciwnie, dla mnie to narzędzie powinno być pewnego rodzaju inspiracją do tego, jak poprawić komunikację ze sobą nawzajem.

Mam jednak wrażenie, że ludzie nie traktują sztucznej inteligencji jako narzędzia do poprawy rzeczywistych relacji, ale raczej ich substytut. Czy wraz z rosnącą samotnością nie sprawi to, że ludzie jeszcze bardziej wyizolują się ze społeczeństwa?

Dotykamy trudnych obszarów i nie ma tu łatwych recept, ale dla mnie szkoła, rodzina, kręgi przyjacielskie są po to, by nas wspierać w budowaniu dobrych relacji. Rozumiem, że nie zawsze tak jest, ale nie mam wątpliwości, że tak powinno być. Chyba że sztuczna inteligencja kiedyś rozwinie się do poziomu generalnej inteligencji, gdy po drugiej stronie będzie jakieś czucie, empatia. Wtedy może stać się nie substytutem, ale po prostu inną formą relacji. Dzisiaj to jest wielka symulacja. Po drugiej stronie nie ma kogoś, komu na tobie zależy, kto chce dla ciebie naprawdę dobrze albo i źle. Tam jest po prostu narzędzie. Pomyśl jednak o osobach starszych, które siedzą w domu i oglądają telewizję. Jak to na nich wpływa, na ich zdolności budowania relacji? Może lepiej, żeby rozmawiali z asystentem AI, jeśli nikt ich nie odwiedza i nie mają treningu społecznego?

Nie uwierzysz, co wiedzą o tobie Tinder czy Grindr! Te informacje zbierają o nas aplikacje randkowe

Już dawno skończyły się czasy, w których aplikacje wiedzą o nas tyle, ile sami byśmy chciały czy chcieli. Wielu informacji wcale nie musimy im podawać. Zaawansowane algorytmy śledzenia powodują, że nawet randkowe apki zbierają o nas takie dane, o których nie mamy pojęcia. Dopóki ktoś nie będzie chciał ich wykorzystać albo nie zostaną bez naszej zgody upublicznione.

Kadr z serialu "Sex Education"
materiały prasowe / kolaż glamour.pl

Wydaje się, że wokół AI pojawiają się głównie pytania natury etycznej, jakie Ty sobie zadajesz jako naukowczyni?

Zajmuję się też światem pracy i współpracy z takimi asystentami w obszarze zawodowym. Ciekawi mnie, czy gdy pracujesz z AI, produktywność, satysfakcja są większe niż podczas pracy solo, na ile takie interakcje są dla nas dziwne, na ile AI możesz traktować jako członka zespołu. Ostatnio zaczęliśmy nowy projekt badawczy dotyczący AI-mentora, czy taka rola jest dla ludzi akceptowalna. Sztuczna inteligencja pojawia się w coraz większej grupie zawodów i w związku z tym są to pytania do nas wszystkich. Czy ty, jako dziennikarka, wykorzystując AI, jesteś z tego zadowolona, czy się tego obawiasz, czy idzie to za daleko? Te pytania często mają charakter etyczny, ale jednocześnie są natury psychologicznej, czyli jak my się z tym czujemy, jaka jest nasza percepcja tych interakcji.

Pojawiają się pytania o granice tego, gdzie powinniśmy powiedzieć sztucznej inteligencji „stop”. Jest też pula pytań technicznych, kiedy chcemy zrozumieć, jak te modele działają, czy ekonomicznych – jak to wpływa na pracę i gospodarkę.

Dużo osób boi się, że sztuczna inteligencja odbierze nam pracę. Ktoś w sieci napisał, że woli, żeby AI robiło za niego pranie albo zmywało naczynia, by mógł poświęcić ten czas na swoje hobby czy pracę, a nie odwrotnie – żeby to AI przejęło jego zawód. Dlaczego więc w ogóle humanizujemy AI?

Z braku lepszego wzorca. Dlaczego tworzymy asystentów, którzy mają z nami rozmawiać? Bo to głównie robimy sami ze sobą. Dlaczego chcemy tworzyć humanoidalne, fizyczne roboty, które przypominają człowieka? Dlatego że nasz świat jest skonstruowany pod takie właśnie ciało, w którym są ręce, nogi, głowa. Możesz skonstruować robota, który będzie miał 17 nóg i wyglądał jak wielki pająk, ale nasz świat, ergonomicznie patrząc, jest skonstruowany pod nasze dwie ręce i dwie nogi. Tak więc z braku lepszego wzorca i dlatego, że to my jesteśmy tym głównym wzorcem, budujemy humanoidalne maszyny i porównujemy się do AI. Czy wykonało lepiej pracę niż my, czy jest bardziej rozwinięte niż człowiek, bardziej inteligentne? Na razie mamy asystentów, którzy czasami robią grafiki, piszą raporty, a ja chciałabym, żeby właśnie prace domowe były wykonywane przez takie systemy.

Poszliśmy raczej w stronę wirtualnych asystentów.

Pamiętasz bajkę „Jetsonowie”, w której było bardzo dużo fizycznych robotów funkcjonujących z człowiekiem? Był asystent robotyczny w domu, który pomaga, posprząta. Tego nie mamy. Mamy asystentów, z którymi możemy sobie pogadać, ale okien nam nie umyją. Myślę, że kolejną dużą falą technologiczną może być właśnie ta robotyka.

Nowa administracja Trumpa zapowiedziała duże inwestycje w AI. Czego możemy się spodziewać?

Reklama

Planowane są poważne zastosowania tej technologii w medycynie – do badań nad długowiecznością, różnymi lekami, budowaniem i tworzeniem terapii, schematów lekowych itd. To wszystko ma być robione z wykorzystaniem sztucznej inteligencji. Spodziewam się, że AI wejdzie w administrację Trumpa, w różne systemy zarządzania budżetami, optymalizację w tym obszarze. Ale też wieloma rzeczami się martwię, bo AI to po prostu narowista technologia, a oni nie narzucają tutaj żadnych ograniczeń jej rozwoju. Chcą budować infrastrukturę, by stworzyć sytuację totalnej supremacji Ameryki w obszarze sztucznej inteligencji, wysłać sygnał całemu światu, że są najlepsi. Spodziewam się umacniania tego przekazu – że sztuczna inteligencja jest w administracji publicznej, na twojej poczcie, umawia cię do lekarza, że jest jej dużo, i w Stanach będzie to szybko widać.

Nawet w Polsce ministerstwo już zapowiedziało, że w mObywatelu będzie działać sztuczna inteligencja, czyli z AI będziesz składać wniosek paszportowy czy inne dokumenty. I w takich obszarach nie mam co do tego zastrzeżeń, podobnie w medycynie – uważam, że każdemu należy się tania diagnostyka. Świat wyraźnie idzie w tę stronę.
Reklama
Reklama
Reklama