top of page

Tysiące twarzy, setki miraży…

5 grudnia 2023


Do zaskakujących wniosków doszli naukowcy z Australijskiego Uniwersytetu Narodowego. Wykazali oni, że twarze wygenerowane w całości przez sztuczną inteligencję (AI) wydają się nam bardziej realistyczne niż rzeczywiste ludzkie twarze. Eksperyment został opisany w czasopiśmie „Psychological Science”. Odkąd w listopadzie 2022 roku OpenAI uruchomiło ChatGPT, świat biznesu dosłownie zachłysnął się sztuczną inteligencją. Liderzy i rekruterzy zalewani są informacjami na temat korzyści płynących z wykorzystania AI, a na rynku pojawiają się nawet nowe zawody, takie jak choćby inżynier promptów. Jednak wraz z możliwościami sztucznej inteligencji pojawia się konieczność posiadania nowych kompetencji, a także szereg zagrożeń…


Według informacji zawartych w artykule naukowym, który ukazał się na łamach „Psychological Science” (więcej informacji tutaj: https://journals.sagepub.com/doi/10.1177/09567976231207095), algorytmy sztucznej inteligencji są przeważnie szkolone na obrazach osób białych (po prostu w ramach wirtualnego ekshibicjonizmu udostępniamy bardzo dużo swoich zdjęć), co w konsekwencji prowadzi do tego, że generowane przez nie twarze poszczególnych osób wydają się bardziej rzeczywiste dla postronnych obserwatorów poddanych badaniu. Co ciekawe zjawisko nie obejmuje jednak twarzy osób o innych kolorach skóry, na co zwracają szczególną uwagę naukowcy. Główna autorka badania dr Amy Dawel ostrzega nawet, że „taka dominacja jednej grupy etnicznej w danych treningowych dla sztucznej inteligencji może generować poważne konsekwencje, wzmacniając ewentualne uprzedzenia rasowe”.


Najnowsze dowody wykazały, że twarzy wygenerowanych przez sztuczną inteligencję nie można obecnie odróżnić od twarzy ludzkich. Jednak algorytmy są trenowane nieproporcjonalnie na białych twarzach, dlatego białe twarze AI mogą wydawać się szczególnie realistyczne.


W eksperymencie 1 (N = 124 osoby dorosłe) oprócz ponownej analizy wcześniej opublikowanych danych naukowcy wykazali, że białe twarze AI są częściej oceniane jako ludzkie niż rzeczywiste twarze ludzkie – zjawisko to określono mianem hiperrealizmu sztucznej inteligencji. Paradoksalnie najbardziej pewne siebie były osoby, które popełniły najwięcej błędów w tym zadaniu (efekt Dunninga-Krugera).


W eksperymencie 2 (N = 610 dorosłych) wykorzystano teorię przestrzeni twarzy i raporty jakościowe uczestników, aby zidentyfikować kluczowe cechy twarzy, które odróżniają sztuczną inteligencję od twarzy ludzkich, ale zostały błędnie zinterpretowane przez uczestników, co doprowadziło do hiperrealizmu sztucznej inteligencji. Jednak atrybuty pozwoliły na wysoką dokładność przy użyciu uczenia maszynowego. Odkrycia te ilustrują, w jaki sposób teoria psychologiczna może pomóc w zrozumieniu wyników sztucznej inteligencji i wskazać kierunek kwestionowania algorytmów sztucznej inteligencji, promując w ten sposób etyczne wykorzystanie sztucznej inteligencji.

Dlaczego dajemy się nabierać na pułapkę hiperrealizmu?


Wspomniane badanie porusza także kwestię „hiperrealizmu” sztucznej inteligencji. Co sprawia, że ludzie często nie zdają sobie sprawy, że są oszukiwani? Co ciekawe i szczególnie niepokojące - uczestnicy badania, którzy uznali generowane przez AI twarze za prawdziwe, paradoksalnie, najpewniej oceniali swoje spostrzeżenia jako poprawne. To sugeruje, że ludzie łatwo dają się oszukać, ale jednocześnie nie uznają tego faktu.


Jak wykazali autorzy badania, pomimo istnienia istotnych fizycznych różnic między obrazami stworzonymi przez sztuczną inteligencję a rzeczywistymi twarzami ludzkimi, ludzie mają tendencję do błędnej interpretacji tych różnic. Na przykład, generowane przez AI twarze białych osób są zazwyczaj bardziej proporcjonalne niż rzeczywiste, co jest niewłaściwie odczytywane, jako cecha ludzkości, a nie wytwór narzędzia do generowania grafiki.


Główna autorka omawianego badania prognozuje, że istniejące różnice między obrazami AI a prawdziwymi twarzami prawdopodobnie znikną w przyszłości, w miarę szybkiego rozwoju technologii sztucznej inteligencji. Z tego powodu uważa, że konieczne jest zwiększenie przejrzystości w dziedzinie sztucznej inteligencji, aby badacze i społeczeństwo mogli zidentyfikować potencjalne problemy zanim staną się poważnym zagrożeniem. Dr Dawel podkreśla, że „edukacja społeczeństwa w zakresie rozpoznawania oszustw związanych z technologią sztucznej inteligencji może odegrać kluczową rolę w ograniczaniu potencjalnych zagrożeń, takich jak dezinformacja czy kradzież tożsamości”.

AI przekracza kolejne granice? Wirtualna influencerka – realne zyski

Ostatnie tygodnie przyniosły również inny ciekawy przykład rozwoju sztucznej inteligencji, który lotem błyskawicy obiegł media na całym świecie. Aitana, 25-letnia mieszkanka Barcelony o różowych włosach, wywołała ogromne zainteresowanie jako modelka i influencerka, uczestnicząc w reklamach i udostępniając zdjęcia w bieliźnie na płatnej platformie. Co jednak sprawia, że ta historia jest tak niezwykła? Właściwie należałoby zacząć od tego, że Aitana w zasadzie nie istnieje. Choć w zasadzie, w świetle kilku nowych faktów nie jest to chyba do końca prawda. Modelka co prawda nie istnieje w realu, ponieważ została w całości wygenerowana przez sztuczną inteligencję. Jej wygenerowanie było inicjatywą agencji The Clueless, która borykała się wówczas z brakiem klientów. Problem ten rozwiązała właśnie wirtualna influencerka, która  może generować miesięczne dochody nawet na poziomie 10 tys. euro, choć średnio utrzymuje się w granicach 3 tys. euro.


Odpowiedzalny za pomysł stworzenia Aitany zespół agencji spotyka się co tydzień, by planować życie wirtualnej influencerki. Decyduje, w jakich wydarzeniach ma brać udział, jakie miejsca odwiedzić i jakie zdjęcia opublikować w sieci. Cały ten proces opiera się na wykorzystaniu Photoshopa oraz sztucznej inteligencji.


Aitana nie tylko spełnia standardy urody, ale także została stworzona tak, by jej osobowość przyciągała uwagę i wzbudzała pozytywne emocje. Jest przedstawiana jako miłośniczka fitnessu, zdeterminowana i posiadająca złożony charakter. Na jej oficjalnej stronie internetowej opisuje się jako osobę towarzyską i opiekuńczą.


Twórcy projektu zwracają uwagę na ogromne korzyści związane z zatrudnieniem wirtualnej modelki. Okazuje się, że w przeciwieństwie do współpracy z realnymi influencerami jest to znacznie tańsza opcja, a także eliminuje ryzyko, że influencerka zrezygnuje lub podejmie działania, które mogłyby negatywnie wpłynąć na wizerunek marki. Aitana jest całkowicie lojalna i wykona w zasadzie każde polecenie – niezależnie od tego, jak bardzo naruszałoby ono normy etyczne i moralne.


Skąd ten cały boom na AI?


Dziś w zasadzie trudno już wyobrazić sobie rozwój jakichkolwiek technologii bez udziału sztucznej inteligencji. Skąd w ogóle wziął się ten fenomen? Ogromną rolę odegrał tu Chat GPT. 30 listopada 2022 roku OpenAI udostępniło publicznie swój model językowy GPT-3.5 znany globalnie jako ChatGPT. Bez wątpienia był to kamień milowy w upowszechnieniu dostępu do zaawansowanej sztucznej inteligencji dla użytkowników na całym świecie. W ciągu pięciu dni od tego wydarzenia ChatGPT przyciągnął pierwszy milion użytkowników, obecnie zaś korzysta z niego już ponad 100 milionów osób tygodniowo. Strona umożliwiająca dostęp do tego modelu notuje imponującą liczbę 1,5 miliarda wizyt miesięcznie.


Warto jednak pamiętać, że ChatGPT nie był pierwszym narzędziem wykorzystującym generatywną sztuczną inteligencję, a jego przewaga nad podobnymi rozwiązaniami nie zawsze była jednoznaczna. Niemniej jednak, łatwa dostępność ChatGPT wywołała duże zainteresowanie mediów, co zaowocowało wzrostem popularności tego właśnie chatbota. To z kolei wpłynęło na większe zaangażowanie dużych graczy w dziedzinie technologii oraz zwiększone zainteresowanie sztuczną inteligencją, jak potwierdza częstsze wyszukiwanie frazy „AI” w Google.


Czy dziś z perspektywy czasu możemy jednoznacznie stwierdzić, że Chat GPT rzeczywiście stanowi przełom w rozwoju technologii? Oczywite jest, że sam model językowy w żaden sposób nie jest „inteligentny” w pełnym tego słowa znaczeniu. Nadal bowiem sztuczna inteligencja jest jednak bardziej sztuczna niż inteligentna. Nie zmienia to jednak faktu, ChatGPT bezapelacyjnie zmienił dynamikę podejścia wielu firm i użytkowników indywidualnych na całym świecie do kwestii rozwoju sztucznej inteligencji.


Dostępność dla użytkowników na całym świecie zaowocowała znacznym zwiększeniem zainteresowania sztuczną inteligencją w różnych dziedzinach życia, także poza obszarem IT. Wykorzystanie tego narzędzia w codziennych zadaniach i przekroczenie granic tradycyjnych dziedzin badawczych spawiło, że większa liczba osób zaczęła dostrzegać potencjał sztucznej inteligencji.

Patrząc w przyszłość można nakreślić kilka kierunków potencjalnego rozwoju sztucznej inteligencji ze szczególnym uwzględnieniem modeli językowch. Spośród nich warto zwrócić uwagę na dwa główne trendy:


- Pierwszy to rozwój osobistych asystentów, mogących znacząco zmienić sposób korzystania z internetu, zwłaszcza w kontekście możliwości integracji wyszukiwarki z modelem językowym


- Drugi to spersonalizowane „podpowiadaczki” tekstu, które wspomagają różne dziedziny życia, z możliwością ich integracji z dotychczas wykorzystywanymi rozwiązaniami chmurowymi.


Nie ulega też wątpliwości, że przyszłość dużych modeli językowych może również wpływać na edukację, zmieniając sposób, w jaki uczymy się i przetwarzamy informacje. Należy jednak pamiętać, że pomimo postępu, sztuczna inteligencja nadal jest tylko narzędziem, a prawdziwej, świadomej sztucznej inteligencji będziemy musieli przez najbliższe lata szukać co najwyżej w literaturze i filmach science-fiction.


Roboty zabiorą nam pracę?


Odkąd w listopadzie 2022 roku OpenAI uruchomiło ChatGPT, świat biznesu zdaje się pozostawać w euforii i z nadzieją patrzeć na wszystko, co związane jest z rozwojem sztucznej inteligencji. Liderzy i rekruterzy zalewani są informacjami na temat korzyści płynących z wykorzystania AI, a na rynku pojawiają się nawet nowe zawody, takie jak inżynier promptów. Jednak wraz z możliwościami sztucznej inteligencji pojawia się konieczność posiadania nowych kompetencji w zespołach.


Według badań Harvard Business Review, liderzy biznesu podkreślają dwie kluczowe kategorie umiejętności, które powinny charakteryzować współczesnych pracowników.


- Pierwsza z nich to umiejętności interpersonalne, takie jak zdolność do zachowania dystansu od emocji, rozwiązywanie konfliktów, praktyka uważności i skuteczna komunikacja.


- Druga kategoria to wiedza specjalistyczna. Podkreśla się tu znaczenie utrzymywania tej wiedzy wśród doświadczonych pracowników, jak również kluczową rolę w przekazywaniu tych kompetencji młodszym członkom zespołu.


Wraz z postępem nowych technologii zmienia się również rynek pracy. Szybki rozwój sztucznej inteligencji, pojawianie się nowych zawodów - to wszystko wymusza konieczność rozwijania nowych kompetencji. Jak wskazuje raport „Rynek pracy, edukacja, kompetencje. Aktualne trendy i wyniki badań”, aż 52% respondentów uważa, że sztuczna inteligencja wpłynie na rozwój ich kariery, nie zagrażając jednak utracie pracy (więcej na temat badań tutaj: https://hbr.org/2023/11/the-skills-your-employees-need-to-work-effectively-with-ai)


Co więcej, w ostatnim czasie szkolenia z zakresu wykorzystania sztucznej inteligencji stały się jednym z najbardziej pożądanych przez pracowników rodzajów szkoleń. Eksperci zajmujący się rozwojem nowych technologii i sztucznej inteligencji są zgodni, że w efektywnym wykorzystaniu sztucznej inteligencji kluczowe są jednak mimo wszystko… ludzkie zdolności, w tym umiejętność zrozumienia kontekstu, co stanowi obszar, który nadal przewyższa możliwości AI.


Po pierwszych zachwytach nad sztuczną inteligencją i ogromie możliwości, jakie wiążą się z jej wykorzystaniem, przyszedł wreszcie moment na refleksję. Dość szybko okazało się, że zzkolenia z AI i rozwijanie twardych umiejętności, takich jak analiza danych czy STEM (nauki ścisłe i techniczne) to co prawda ważny aspekt podnoszenia kwalifikacji, jednak istotne jest coś jeszcze. Równie ważny okazał jest rozwój umiejętności miękkich, które mogą pozytywnie wpływać na efektywność pracowników, a co za tym idzie, na organizacje. Szczególne znaczenie mają one w kontekście pracy zespołowej, komunikacji i zarządzania. Umiejętności takie jak empatia, kreatywność, perswazja, negocjacje, zarządzanie dynamiką grupy, wymieniane są przez EY Polska jako kluczowe kompetencje przyszłości, wraz z umiejętnością efektywnej komunikacji, zarządzania sobą w czasie oraz umiejętność rozwiązywania problemów i zarządzania konfliktami. To właśnie one stanowią dodatkową wartość pracownika w erze, gdy coraz więcej zadań i procesów podlega automatyzacji. Aby dostrzec jak wyraźny jest ten trend, wystarczy przejrzeć najnowsze oferty pracy powiązane z branżą technologiczną i IT – zwłaszcza na szczeblu kadry zarządzającej i specjalistów.


Osiągnięcie przewagi konkurencyjnej nie jest możliwe bez zaangażowania zespołu w procesie biznesowym. Badania wskazują, że pośpiech w zastępowaniu ludzi przez AI jest błędem. Sztuczna inteligencja pozostaje narzędziem, które wymaga ludzkiego nadzoru, intuicji i kreatywności. W związku z tym Employee Experience (doświadczenie pracownika) staje się kluczowym elementem i czyni człowieka trudnym do zastąpienia przez maszynę.


Jaka przyszłość AI?


W kontekście rozwoju sztucznej inteligencji nie brak obaw. Nadchodzące miesiące mogą zadecydować o kształcie dalszego rozwoju AI w skali globalnej. Mam tu na myśli AI Act, precedensowy akt prawny UE, który wywołał niemałe zamieszanie we wszystkich podmiotach związanych z rozwojem AI. Przyjęty 14 czerwca dokument zgodnie z zapewnieniami jego inicjatorów ma na nowo wytyczyć granice między ochroną użytkowników a globalnymi innowacjami.


Regulacja rozdzieli narzędzia AI dokonując ich klasyfikacji w oparciu o poziomy ryzyka, od niskiego do niedopuszczalnego. Rządy i firmy korzystające z tych narzędzi będę musiały wypełnić obowiązki odpowiadające poziomowi ryzyka. Co więcej regulacjami objęty zostaje każdy dostawca usług opartych o AI.

Narzędzia AI wysokiego ryzyka, w tym te wykorzystywane w infrastrukturze krytycznej, egzekwowaniu prawa lub edukacji, a także tzw. systemy AI ogólnego przeznaczenia (GPAIS), np. Chat GPT, są przedmiotem szczególnie intensywnej kontroli. Ustawodawcy są obecnie zaangażowani w debaty na temat obowiązków takich firm jak OpenAI i klasyfikacji ich rozwiązań.


Na koniec zamiast podsumowania kilka faktów o AI:


● Badanie Accenture 2022 Tech Vision wykazało, że tylko 35% globalnych konsumentów ufa temu, w jaki sposób AI jest wdrażana przez organizacje. 77% uważa, że organizacje muszą zostać pociągnięte do odpowiedzialności za niewłaściwe wykorzystanie sztucznej inteligencji.


● Oczekuje się, że tylko 5-15 procent aplikacji AI będzie w domenie podwyższonego ryzyka - ale wśród być moze również Chat GPT używany przez prawie 3 miliony Polaków.


● Goldman Sachs przewiduje, że generatywna sztuczna inteligencja może podnieść globalne PKB o 7%, a 300 milionów pracowników na całym świecie będzie korzystać ze sztucznej inteligencji.


dr Piotr Łuczuk

Medioznawca, ekspert ds. cyberbezpieczeństwa. Redaktor naczelny serwisu FilaryBiznesu.pl. Wicedyrektor Instytutu Edukacji Medialnej i Dziennikarstwa Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie. Ekspert Instytutu Staszica.



Foto: pixabay.com

bottom of page