1 czerwca 2023
W dzisiejszych czasach rozwój technologiczny umożliwił stworzenie coraz bardziej zaawansowanych robotów i sztucznej inteligencji. Jednak równocześnie na horyzoncie pojawiają się zupełnie nowe wyzwania natury etycznej i prawnej związane z używaniem i wprowadzaniem nowoczesnych technologii w naszym codziennym życiu. Jeszcze na długo przed rozwojem sztucznej inteligencji i powstaniem pierwszych robotów zaczęto się zastanawiać, czy w przyszłości nie będzie to stanowić zagrożenia dla ludzkości. Niektórzy naukowcy i filozofowie od lat ostrzegają przed możliwością, że sztuczna inteligencja może stać się zbyt inteligentna i przejąć kontrolę nad ludźmi. Jak bumerang wraca również lęk przed buntem maszyn. Są jednak tacy, którzy uważają, że rozwoju sztucznej inteligencji i robotyzacji nie należy przerywać, lecz ograniczyć systemem konkretnych praw i nakazów.
Przez całe lata swego rodzaju papierkiem lakmusowym dla poziomu zaawansowania sztucznej inteligencji pozostawał test Turinga. Chodzi o eksperyment zaproponowany przez brytyjskiego matematyka i informatyka, Alana Turinga, w 1950 roku. Polega on na przeprowadzeniu rozmowy między człowiekiem a maszyną, tak aby sędzia nie był w stanie odróżnić, z kim właściwie rozmawia (człowiekiem czy maszyną). Coś, co jeszcze kilka dekad temu wydawało się futurystyczną abstrakcją dziś nie jest dla nikogo zaskoczeniem. Okazuje się, że odróżnienie człowieka od maszyny przychodzi ludziom coraz trudniej…
Kwestie dotyczące sztucznej inteligencji od pewnego czasu zdominowały nie tylko debatę akademicką, ale także zaczęły przebijać się na czołówki mediów. Trudno jednak nie odnieść wrażenia, że mówiąc coraz więcej o sztucznej inteligencji, nie do końca zdajemy sobie sprawę, o czym dokładnie mówimy.
Zacznijmy więc od kwestii najważniejszej - zdefiniowania pojęć sztucznej inteligencji i robotów.
· Sztuczna inteligencja – (ang. artificial intelligence, AI) – inteligencja wykazywana przez urządzenia sztuczne (w przeciwieństwie do inteligencji naturalnej). Termin ten utworzył John McCarthy. Najprościej rzecz ujmując, sztuczna inteligencja to zdolność maszyn do wykazywania ludzkich umiejętności, takich jak rozumowanie, uczenie się, planowanie i kreatywność.
Sztuczna inteligencja umożliwia systemom technicznym postrzeganie ich otoczenia, radzenie sobie z tym, co postrzegają i rozwiązywanie problemów, działając w kierunku osiągnięcia określonego celu. Komputer odbiera dane (już przygotowane lub zebrane za pomocą jego czujników, np. kamery), przetwarza je i reaguje. Systemy oparte o sztuczną inteligencję i uczenie maszynowe są w stanie do pewnego stopnia dostosować swoje zachowanie, analizując skutki wcześniejszych działań i działając autonomicznie.
W potocznym rozumieniu jest ona często używana w kontekście „prawdziwej sztucznej inteligencji”. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.
· Roboty natomiast, to urządzenia, które potrafią wykonywać określone zadania związane z przemieszczaniem się, manipulacją przedmiotami czy też zastępują pracę ludzi w różnych dziedzinach, takich jak przemysł, medycyna czy rolnictwo.
Według oryginalnego znaczenia terminu, robot jest kontrolowany przez sztuczną inteligencję (lub wręcz z nią tożsamy), przy czym obecnie to pojęcie używane jest także dla urządzeń kontrolowanych przez algorytmy lub człowieka. W najszerszym znaczeniu robotem nazywa się dowolny program komputerowy automatyzujący pewne zadania. Roboty często zastępują człowieka przy monotonnych, złożonych z powtarzających się kroków czynnościach, które mogą wykonywać znacznie szybciej od ludzi. Domeną robotów mechatronicznych są też te zadania, które są niebezpieczne dla człowieka, na przykład związane z manipulacją szkodliwymi dla zdrowia substancjami lub przebywaniem w nieprzyjaznym środowisku.
Pojęcie robot używane też jest do nazywania autonomicznie działających urządzeń odbierających informacje z otoczenia przy pomocy sensorów i wpływających na nie przy pomocy efektorów. Dziedziną sztucznej inteligencji zajmującą się projektowaniem i konstruowaniem robotów jest robotyka.
Katechizm robo(e)tyczny
Tak docieramy do sedna problemu – praw robotów i jakiegoś spójnego, a przede wszystkim uniwersalnego kodeksu etycznego, którym można by je podporządkować. Już dziś można wyróżnić kilka potencjalnych kierunków, w jakich można by w przyszłości regulować prawa robotów. Przede wszystkim warto zastanowić się nad tym, jaka powinna być odpowiedzialność prawna i finansowa producentów robotów, którzy przecież tworzą maszyny o coraz większej autonomii i samodzielności. W przypadku wypadków czy błędów powinno być jasne, kto ponosi odpowiedzialność i kto będzie odpowiadał za ewentualne szkody.
Inną kwestią jest też pytanie o to, jakie powinny być prawa samego robota. Czy powinien mieć on jakieś prawa obywatelskie, takie jak np. prawo do prywatności, wolności słowa czy zgromadzeń? Czy powinien mieć też jakieś ograniczenia w swojej działalności, np. w kontekście monitorowania ludzi czy podejmowania decyzji dotyczących życia i śmierci? A może w grę wchodzi jakiś wyłącznik awaryjny?
Kultowy autor science-fiction Isaac Asimov uważał, że roboty powinny mieć swoje prawa, a w zasadzie być nimi ograniczone, żeby zapobiec nadużyciom i niebezpieczeństwom związanym z ich rozwojem. W swojej książce „Ja, robot” przedstawił trzy podstawowe prawa robotów:
1. Robot nie może skrzywdzić człowieka ani przez zaniechanie działań dopuścić, aby człowiek doznał szkody.
2. Robot musi słuchać poleceń ludzi, chyba że są one sprzeczne z pierwszym prawem.
3. Robot musi chronić swoje istnienie, chyba że jest to sprzeczne z pierwszymi dwoma prawami.
Później Asimov dodał później jeszcze jeden punkt - traktowany, jako prawo zerowe: robot nie może działać w taki sposób, aby kolidować z interesem ludzkości, czyli musi uwzględniać długoterminowe skutki swoich działań dla ludzi.
Zaproponowane przez Asimova prawa robotów od lat rezonują w literaturze, popkulturze, a nawet w dyskursie naukowym. Stały się istotnym punktem odniesienia dla debat dotyczących etyki i regulacji w dziedzinie sztucznej inteligencji i robotów. Szybko jednak stało się jasne, że proponowany przez Asimova zbiór praw wymaga dalszych prac legislacyjnych. Nie jest to jednak wyzwaniem tylko dla prawników. Szalenie istotny jest w tym względzie aspekt etyczny. Dlaczego?
Proponowane przez Asimova zasady, mówiące o tym, że roboty nie mogą szkodzić ludziom, muszą słuchać ludzkich poleceń i chronić swoje istnienie, są zaledwie koncepcją literacką i nie mają praktycznego zastosowania w realnym świecie. Ponadto, nie uwzględniają wszystkich potencjalnych sytuacji, które mogą się zdarzyć w świecie rzeczywistym. Na przykład, co się stanie, gdy robot otrzyma rozkaz, który jednocześnie łamie jedno z praw? Czy będzie musiał wybrać, które prawo jest ważniejsze?
Oto kilka przykładów paradoksów związanych z prawami robotów:
1. Paradoks Błędnego Koła - polega na sytuacji, w której robot działa zgodnie z prawem, ale w efekcie narusza jedno z praw. Na przykład, gdy robot otrzyma rozkaz, aby zapewnić bezpieczeństwo ludziom i usunąć źródło zagrożenia, ale w procesie usuwania zagrożenia zniszczy coś, co jest cenne dla ludzi.
2. Paradoks Soritesa - polega na sytuacji, w której nie można określić granicy, w której robot przestaje być bezpieczny i zaczyna być niebezpieczny. Na przykład, jeśli robot wykonuje zadanie, które jest niebezpieczne dla ludzi, ale tylko w minimalnym stopniu, to gdzie należy narysować granicę?
3. Paradoks Złotego Łańcucha - polega na sytuacji, w której robot wykonuje niebezpieczne zadanie, ponieważ nie może wykonać innych zadań, które mogłyby być jeszcze bardziej niebezpieczne. Na przykład, gdy robot musi zniszczyć budynek, aby uratować życie ludzi w innej części budynku.
4. Paradoks Piętna - polega na sytuacji, w której robot wykonuje zadanie, które narusza jedno z praw, ale robi to w imię ochrony innych praw. Na przykład, gdy robot musi zabić jednego człowieka, aby uratować życie innych ludzi.
Już te przykłady pokazują, że wprowadzenie uniwersalnego prawa obejmującego roboty i algorytmy wykorzystujące sztuczną inteligencję robotów może być niezwykle skomplikowane, a każde rozwiązanie może rodzić nowe problemy. W związku z tym, konieczne jest uważne przemyślenie i dopracowanie regulacji, które będą uwzględniać różne scenariusze działania robotów i ich interakcji z ludźmi.
W tym obszarze pojawia się od razu szereg pytań, na które nie zawsze znajdujemy jednoznaczne odpowiedzi. Przede wszystkim chodzi o próbę przewidywania, jakie realne konsekwencje dla ludzi może mieć coraz większa autonomia robotów i sztucznej inteligencji. W tym miejscu najczęściej wspomina się o ryzyku, że w przyszłości będziemy mieli do czynienia z masowym bezrobociem, gdy większość prac zostanie zautomatyzowana. Innym wyzwaniem etycznym jest sygnalizowane przeze mnie już wcześniej pytanie o to, jakie są granice odpowiedzialności robotów i sztucznej inteligencji. Czy mogą one być moralnie odpowiedzialne za swoje decyzje, czy raczej decyzje te powinny zawsze podlegać kontroli i nadzorowi ludzi?
Wreszcie, warto zastanowić się też nad kwestią dyskryminacji i nierówności w kontekście sztucznej inteligencji. Czy algorytmy i roboty nie będą dyskryminować różnych grup społecznych, np. na podstawie płci, rasy czy wyznania, a może nawet samego faktu bycia człowiekiem? Jak zapewnić, że rozwój sztucznej inteligencji będzie służył wszystkim ludziom, a nie tylko wybranej grupie? Czy sztuczna inteligencja powinna być używana do podejmowania decyzji w dziedzinach takich jak medycyna, finanse czy rządzenie?
Już w 2017 roku w sprawozdaniu Komisji Europejskiej z 2017, jego autorzy uważają, że w nieodległej przyszłości wyjątkowo zaawansowane maszyny mogą się stać „osobami elektronicznymi”. Pierwsze tego typu przypadki wyliczał na łamach „Gazety Polskiej” Piotr Grochmalski w tekście „Sztuczna inteligencja na wojnie z człowiekiem”. Poniżej krótki fragment:
„W Tokio bot o imieniu Shibuya Mirai, mający cechy siedmioletniego chłopca, ale nieposiadający żadnej „cielesności”, ma stałe zameldowanie. Android „żeński” Fran Pepper uzyskał 30 stycznia 2017 roku w Belgii akt urodzenia. Jest to pierwszy robot obywatel UE, a zarazem pierwszy taki na świecie. Wyprzedził humanoidkę Sophię, która oficjalnie została obywatelem Arabii Saudyjskiej 25 października 2017 roku. Ten robot, jako pierwszy humanoid w historii, odwiedził siedzibę Organizacji Narodów Zjednoczonych”.
I jeszcze dwa najnowsze doniesienia z ostatnich miesięcy:
Maszyna czyta ludzkie myśli
Opracowany na University of Texas w Austin (USA) system - połączona ze skanerem MRI sztuczna inteligencja – był w stanie odczytywać myśli ochotników. Co prawda wynalazek na razie robi jeszcze błędy, ale zdaniem jego twórców w przyszłości podobne urządzenia mogłyby pomagać osobom niezdolnym do zwykłej komunikacji. W czasie eksperymentu ochotnicy słuchali pewnej historii, albo wyobrażali sobie jej opowiadanie. Ich mózgi były obserwowane z pomocą rezonansu magnetycznego (MRI), a połączona z nim sztuczna inteligencja zamieniała myśli ludzi na zgodny z nimi tekst. Na razie komputer nie jest zbyt dokładny – w miarę precyzyjnie odczytuje myśli w ok. 50 proc. Potrafi jednak często oddać sens wypowiedzi.
Na przykład myśl: „Mie mam jeszcze prawa jazdy” przetłumaczył na: „ona nie zaczęła jeszcze nauki jazdy samochodem”.
Słuchając myśli: „Nie wiedziałam, czy krzyczeć, płakać, czy uciekać”, odczytał jako: „Zaczęła krzyczeć i płakać, a potem powiedziała ‘mówiłam ci, abyś mnie zostawił’”. System radził sobie także z czytaniem myśli ochotników, kiedy oglądali materiały wideo.
Współczujący chatbot
Co szczególnie intrygujące, zdaniem naukowców prowadzenie „empatycznej” konwersacji z pacjentem to obszar, gdzie sztuczna inteligencja, czyli w tym wypadku algorytm generujący zdania, może się sprawdzić lepiej od samych lekarzy. Wykazały to najnowsze badania. Porady udzielane pacjentom przez ChatGPT często oceniane były jako bardziej „empatyczne” niż te, których udzielali lekarze – piszą naukowcy na łamach periodyku „JAMA Internal Medicine”.
Naukowcy porównywali pisemne odpowiedzi lekarzy na zapytania pacjentów z odpowiedziami udzielanymi przez ChatGPT. Odpowiedzi oceniane były przez panel ekspertów, profesjonalistów w zakresie służby zdrowia.
W 79 proc. przypadków preferowali oni odpowiedzi, których udzielał ChatGPT, uznając je za lepsze jakościowo i bardziej empatyczne
Człowiek czy maszyna? Oto jest pytanie! Paradoks sztucznej inteligencji
Test Turinga jest uważany za jedną z podstawowych prób określenia czy maszyny są w stanie „myśleć” i działać jak ludzie. Współcześnie jednak jest on krytykowany przez niektórych naukowców, którzy podważają jego zasadność i przekonują, że biorąc pod uwagę obecny rozwój prac nad sztuczną inteligencją, nie jest on wystarczająco złożony, aby wskazać, czy dana maszyna wyróżnia się inteligencją na czysto ludzkim poziomie i jest w stanie komunikować jak człowiek.
Dokładnie test polega na prowadzeniu równolegle rozmów z człowiekiem i z maszyną, bez widzenia i słyszenia rozmówcy. Zadaniem sędziego jest odgadnięcie, który z rozmówców jest człowiekiem, a który jest maszyną. Maszyna pozytywnie przechodzi test Turinga, gdy sędzia jest w stanie rozróżnić maszynę od człowieka w mniej niż 30% przypadków. W dzisiejszych czasach wiele sektorów i miejsc pracy zostało zdominowanych przez roboty i maszyny, co jest wynikiem postępującej automatyzacji i digitalizacji. Dziś postanowiłem skoncentrować się na kilku najciekawszych przykładach starć człowieka z maszyną. Z jakim skutkiem one przebiegały? Zapraszam do lektury.
We wrześniu 2011 roku program CleverBot (stworzony przez Rollo Carpentera w 1988 roku i od tego czasu rozwijany), oszukał ponad 59,3% rozmówców, którzy byli przekonani, że rozmawiają z człowiekiem. Do zaliczenia testu Turinga zabrakło zaledwie 4%, gdyż człowieka w ramach równoległego testu rozpoznało prawidłowo 63,3% osób.
Oficjalnie uznaje się, że maszyna przeszła test Turinga w 2014 roku. Program komputerowy o nazwie Eugene Goostman udawał 13-letniego chłopca ze wschodniej Ukrainy podczas trwania międzynarodowej konkursu Turing Testu w Royal Society w Londynie. Eugene Goostman przekonał 33% sędziów, że rozmawiają z żywą osobą, co pozwoliło mu na uznaniowe przejście testu Turinga. Jednakże wynik ten wywołał kontrowersje w kręgach eksperckich. Wskazywano wówczas na ograniczenia testu Turinga jako sposób na ocenę sztucznej inteligencji. Wcześniej jednak szacowano możliwość zdania przez maszynę testu Turinga na rok 2030. Rozwój technologiczny zweryfikował jednak te prognozy.
Tomasz Rożek. Dziennikarz naukowy, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię” w niedawnym wywiadzie dla portalu ekai.pl przypomniał, że „było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć sztuczną inteligencję (AI) moralności i to zawsze wychodziło źle”.
Nie ulega jednak wątpliwości, że w dzisiejszych czasach wiele sektorów i miejsc pracy zostało już zdominowanych przez roboty i maszyny, co jest wynikiem postępującej automatyzacji i digitalizacji. Gdzie roboty zastąpiły lub zaczynają zastępować człowieka? Oto kilka przykładów:
1. Przemysł motoryzacyjny: Produkcja samochodów w fabrykach jest praktycznie całkowicie zautomatyzowana. Roboty są w stanie wykonywać większość prac, włącznie z malowaniem i spawaniem.
2. Magazynowanie i logistyka: W magazynach coraz częściej wykorzystuje się roboty do kompletowania zamówień i pakowania produktów. Dzięki temu można zaoszczędzić czas i zmniejszyć ryzyko błędów.
3. Gastronomia: W niektórych restauracjach roboty zastępują kelnerów, np. w Japonii popularne są roboty serwujące sushi.
4. Opieka zdrowotna: W niektórych szpitalach roboty asystują chirurgom podczas operacji, co zmniejsza ryzyko błędów i zwiększa precyzję.
5. Rolnictwo: W niektórych krajach roboty zastępują ludzi w zbiorze owoców i warzyw, co pozwala na zmniejszenie kosztów i czasu zbiorów.
Należy jednak pamiętać, że pomimo postępującej automatyzacji wciąż wiele sektorów wymaga zaangażowania człowieka, szczególnie w miejscach, gdzie potrzebna jest kreatywność, empatia i umiejętność podejmowania decyzji.
Żyjemy w takich czasach, w których na własne oczy możemy obserwować starcie człowieka z maszyną w wielu obszarach. Rywalizacja ze sztuczną inteligencją staje się coraz ciekawsza. W dzisiejszych czasach sztuczna inteligencja wkracza w różne obszary życia, takie jak medycyna, energetyka, a nawet wartości i piękno. AIVA, stworzona w 2016 roku, komponuje muzykę klasyczną, a algorytm Kontynuator współtworzy jazz na profesjonalnym poziomie. W 2018 roku dom aukcyjny Christie’s sprzedał za 425 500 dolarów grafikę stworzoną przez algorytm. Algorytmy te są wykorzystywane także w przestrzeni medialnej - chińska agencja rządowa Xinhua zaczęła w 2018 roku wykorzystywać bota jako sztucznego prezentera w kanale informacyjnym.
Poniżej kilka ciekawych przykładów starcia człowieka ze sztuczną inteligencją:
1. Szachy: Już od ponad 20 lat odbywają się turnieje, w których najlepsi gracze szachowi rywalizują z programami komputerowymi. W 1997 roku IBM Deep Blue pokonał ówczesnego mistrza świata Garrego Kasparowa. Od tego czasu sztuczna inteligencja stała się jeszcze bardziej zaawansowana, a rywalizacja między człowiekiem a maszyną trwa nadal.
2. Go: Gra w go jest jedną z najtrudniejszych gier planszowych świata. Do niedawna uważano, że sztuczna inteligencja nigdy nie będzie w stanie pokonać najlepszych graczy ludzkich. Uczeni przekonywali, że algorytm nigdy nie będzie w stanie wykazać się taką kreatywnością, jaką posiada człowiek. Tymczasem w 2016 roku program AlphaGo, opracowany przez firmę DeepMind (należącą do Google'a), pokonał Lee Sedola, ówczesnego mistrza świata w go, w serii pięciu meczów. AlphaGo został stworzony przez w oparciu o technologię deep learningu, która opiera się na sztucznych sieciach neuronowych. Algorytm analizował tysiące meczów go rozegranych przez ludzi, a następnie rywalizował sam ze sobą. Jego kolejna wersja, AlphaGo Zero, nauczyła się wszystkiego od podstaw, grając tylko ze sobą. Pokonała też swojego poprzednika, AlphaGo, wynikiem sto do zera. Kolejne wersje algorytmu, w tym AlphaZero, zaczęły być wykorzystywane do nowych obszarów, takich jak medycyna, energetyka, widzenie komputerowe czy rozpoznawanie mowy.
3. Diagnostyka medyczna: W diagnostyce medycznej sztuczna inteligencja może pomóc w rozpoznawaniu chorób i szybszym wykrywaniu zmian chorobowych na zdjęciach medycznych. Programy komputerowe, takie jak Watson for Oncology od IBM czy wDiagnostix, pomagają lekarzom w podejmowaniu decyzji diagnostycznych i terapeutycznych.
4. Sport: W 2018 roku na Zimowych Igrzyskach Olimpijskich w Pjongczangu w Korei Południowej odbył się turniej w curlingu, w którym jeden z zespołów rywalizował z robotem stworzonym przez firmę Hyundai. Początkowo publiczność nie wiedziała w ogóle, co się dzieje. Robot opracowany przez Uniwersytet Jiao Tong w Szanghaju pojawił się na igrzyskach olimpijskich. Urządzenie zaprezentowane zostało podczas turnieju curlingowego. Robot był w stanie precyzyjnie przewidywać trajektorię kamieni curlingowych i podejmować decyzje dotyczące ich ustawienia na lodowisku.
5. E-sport: W grach komputerowych sztuczna inteligencja może rywalizować z najlepszymi graczami ludzkimi. W 2017 roku program AlphaGo Zero pokonał w grze StarCraft II zawodowego gracza TLO, co było kolejnym krokiem w rozwoju sztucznej inteligencji w grach komputerowych.
Nadejście ery robotów zapowiadano od dawna. U nas czynił to na kartach swoich powieści i opowiadań Stanisław Lem, za granicą był to z kolei Isaac Asimov oraz Philip K. Dick nazywany przez współczesnych „Dostojewskim Science-Fiction”. Dlaczego o tym piszę? Choćby dlatego, że wizje przyszłości z ich książek coraz bardziej przypominają teraźniejszość, w której żyjemy. Jeśli idea funkcjonujących obok człowieka robotów wydaje się zbyt abstrakcyjna, radzę zastanowić się, czy przypadkiem tego typu maszyny nie znajdują się już w naszych domach. Żeby było jasne - nie mam tu na myśli robotów kuchennych.
dr Piotr Łuczuk
Medioznawca, ekspert ds. cyberbezpieczeństwa. Redaktor naczelny serwisu FilaryBiznesu.pl. Adiunkt w Instytucie Edukacji Medialnej i Dziennikarstwa Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie. Ekspert Instytutu Staszica
Foto: pixabay.com