Masowy dostęp do programów sztucznej inteligencji generujących skomplikowane teksty i obrazy bardzo szybko zmienia nie tylko Internet, ale i świat rzeczywisty. Chodzi oczywiście przede wszystkim o ChatGPT, ale też DALL-E oraz Midjourney, jak i wiele innych. W sieci istnieje sporo sprzecznych informacji na ich temat, toczy się też mnóstwo dyskusji. Warto znać kilka kluczowych faktów o sztucznej inteligencji, tak aby nie przecenić oraz nie nie doszacować jej możliwości, a także by zmniejszyć ryzyko nabrania się na coraz częstsze oszustwa, przy których wykorzystano taką technologię.
Artykuł napisałem dzięki wsparciu moich Patronów i Patronek. To dzięki nim blog ten może istnieć i się rozwijać, a publikowane tutaj teksty i artykuły są niezależne. Jeśli chcesz wesprzeć moją działalność, możesz to zrobić na moim profilu Patronite.
Sztuczna inteligencja nie jest jedna
Nazwa „sztuczna inteligencja” jest bardzo myląca. Przede wszystkim dlatego, że nie jest to jeden „byt” czy program, lecz ogólna nazwa na rodzaj oprogramowania zdolnego do „samouczenia się” oraz tworzenia skomplikowanych treści na podstawie wyrafinowanej statystyki. To tak, jak z „grami komputerowymi” – mówimy tak generalnie na rozmaite programy komputerowe służące do grania.
Po drugie, sztuczna inteligencja nie jest istotą czy bytem ani nie jest inteligentna. To, co tworzy, wydaje się wymagać inteligencji, i m. in. dlatego tak się ją nazywa, ale tak naprawdę aktualne algorytmy tego typu dokonują rozmaitych obliczeń i działań statystycznych na podstawie masy danych, dzięki czemu są w stanie wydać coś sensownego i skomplikowanego. Są jak kalkulatory, tylko zdolne do przetwarzania także tekstu, obrazu i dźwięku, w sposób niezwykle złożony. Na marginesie, potrzebują na to ogromnej ilości prądu elektrycznego.
Sztuczna inteligencja nie ma świadomości (i być może nigdy nie będzie mieć)
Z rozmaitych badań oraz rozważań naukowych i filozoficznych (polecam choćby „Historię naszej świadomości”) wynika, że dla zaistnienia świadomości niezbędne jest posiadanie ciała – aby w ogóle było czego być świadomym, wobec czego, w czym i poza czym. Nawet najbardziej skomplikowany program komputerowy w „najlepszym” razie byłby prawdopodobnie jak mieszanka bytu z rozmaitymi zaburzeniami percepcyjnymi, intelektualnymi i „emocjonalnymi”. Byłby przypuszczalnie jak „ktoś” ze schizofrenią, autyzmem, borderline, narcyzmem, bardzo wysokim i bardzo niskim ilorazem inteligencji w jednej „osobie” – byłby to chaotyczny, nieustrukturyzowany „psychicznie” i „mentalnie” „byt”. Być może da się stworzyć świadomy byt cyfrowy po zainstalowaniu go do mechanicznego „ciała” (taki scenariusz wydaje się przedstawiać np. powieść „Klara i Słońce”), ale na dzień dzisiejszy wydaje się to mało prawdopodobne. Co nie znaczy, że niemożliwe.
Sztuczna inteligencja nie ma emocji (i prawdopodobnie nie będzie ich miała)
Błędem poznawczym jest zakładanie, że emocje są czymś odrębnym od ciała, że są jakąś psychiczną abstrakcją, oderwaną od organizmu duszą lub ponadczasową energią. Emocje wywoływane są przez określone czynności fizjologiczne. Szybsze bicie serca czy wyrzut adrenaliny powoduje uczucie lęku, oksytocyna czy dopamina, wraz ze specyficzną siecią powstałych wcześniej synaps i wspomnień daje uczucie przywiązania i miłości, niższe tętno i napięcie mięśniowe dają efekt relaksu itd.
Wrażenia psychiczne oddziałują zwrotnie oraz pierwotnie na ciało, ale nie występują same z siebie, bez cielesności. Chociaż każdy zdrowy człowiek wie, co znaczy odczuwanie lęku, relaksu, miłości, empatii, gniewu, wstydu, podniecenia lub radości, to zarazem nikt nie jest w stanie matematycznie tego uchwycić, a tym bardziej zapisać. Przeniesienie takich stanów – nie wspominając o bardziej szczegółowych emocjach i uczuciach, takich jak np. poczucie wyrzutów sumienia albo rozochocenie – do świata wirtualnego wydaje się być obecnie niemożliwe. Programy sztucznej inteligencji nie posiadają żadnych emocji i prawdopodobnie nigdy nie będą ich odczuwały. Odpowiedzi czy zachowania (gdyby umieścić oprogramowanie w robotach) będą bazowały na statystycznym uchwyceniu prawdopodobieństwa dla danej reakcji i interakcji, bez całej fenomenologii (życia wewnętrznego, myśli, uczuć, emocji, motywacji, wspomnień, marzeń i świadomości tego wszystkiego) dostępnej człowiekowi (i być może niektórym innym, wysoko rozwiniętym ewolucyjnie zwierzętom).
Sztuczna inteligencja bazuje na skopiowanych treściach stworzonych przez prawdziwych ludzi
Sztuczna inteligencja sama niczego nie tworzy. Jest „karmiona” niemal niezliczonymi ilościami danych (tekstów, obrazów, dźwięków). Potem zestawia je statystycznie i kompiluje, generując teksty czy obrazy będące miksem wielu treści, które wcześniej stworzył człowiek: czy to zawodowy malarz, rysownik, pisarz, dziennikarz, czy przypadkowy użytkownik Facebooka, komentujący rozmaite posty. Dlatego obecnie w wielu krajach toczą się batalie sądowe o kradzież własności intelektualnej – oprogramowanie AI zostało, zwykle bez zgody i wynagrodzenia dla autorów i twórców, „nakarmione” określonymi treściami (w tym książkami, artykułami, obrazami, piosenkami), a potem wygenerowany przez AI utwór nie był podpisany nazwiskami rzeczywistych twórców. W kontekście prawnym, filozoficznym czy potocznym to, co generuje oprogramowanie sztucznej inteligencji, jest więc niejednokrotnie jakąś formą kradzieży.
Ponieważ dane pochodzące z niemal wszystkich naszych klików na komputerach czy smartfonach są wykorzystywane do tworzenia programów sztucznej inteligencji i spieniężane, coraz częściej fakt, że nie otrzymujemy za to wynagrodzenia, a jedynie dostęp do danego serwisu internetowego, nazywa się „cyfrowym feudalizmem” – tak jak niegdyś chłopi za wytwarzanie żywności dostawali tylko jedzenie i dach nad głową, bez konkretnego wynagrodzenia, tak my za produkcję danych otrzymujemy jedynie dostęp do jakiejś platformy, która z tychże danych otrzymuje niebotyczne zyski – te gigantyczne budżety firm technologicznych (przewyższające nieraz pieniądze poszczególnych ministerstw największych krajów europejskich) nie biorą się znikąd. Nie chcę przez to powiedzieć, że taka eksploatacja jest analogiczna do fizycznej, niemal niewolniczej pracy na roli, bo różnica jest ewidentna. Mechanizm wyzysku pozostaje jednak taki sam i co więcej, każda duża firma technologiczna ma specjalny dział neuromarketingowy, służący do usprawniania swojej strony tak, aby jak najsilniej uzależniała behawioralnie i zmuszała do spędzania całych godzin na skrolowaniu jej itp. Czego skutkiem są zaburzenia koncentracji oraz zaburzenia psychiczne.
Sztuczna inteligencja może być niebezpieczna. Jeśli…
Czy sztuczna inteligencja może być niebezpieczna? W zasadzie już jest. Wykorzystuje się ją do bezzałogowych maszyn służących do niszczenia i zabijania. Jak napisałem wyżej, algorytmy nie mają ani emocji, ani uczuć, ani świadomości. Są amoralne. Nie ma w nich bezpieczników, które istnieją w ludziach: współczucia, empatii, rozsądku, inteligentnej analizy, świadomości konsekwencji planowanych czynów. Inne niebezpieczeństwo związane ze sztuczną inteligencją dotyczy wspomnianej inwigilacji. Zbieranie osobistych danych i wyciąganie z nich wniosków nigdy nie było tak proste, dzięki programom sztucznej inteligencji. Póki co wykorzystuje się to głównie do reklam, ale coraz częściej także do tworzenia niebezpiecznych dla rynku monopoli oraz do nieuczciwego zwalczania konkurencji. Okres, kiedy Facebook, Google, Netflix, Uber czy Apple kojarzą się jako przyjazne ludziom firmy odszedł na zawsze – obecnie są to tak samo drapieżne korporacje, jak z wszelkich innych branż.
Wizja z „Roku 1984” mogłaby stać się wielokrotnie bardziej upiorna, gdyby dodano do niej sztuczną inteligencję pomagającą w inwigilacji. W Chinach programy sztucznej inteligencji są używane do rozpoznawania twarzy i identyfikacji ludzi – zarówno personalnie, jak i etnicznie czy rasowo. Gdyby naziści mieli takie narzędzie w swoich rękach, jak wyglądałby dziś świat? Być może poznamy podobny scenariusz w bieżącym stuleciu. Natomiast na dzień dzisiejszy stosunkowo mało prawdopodobne wydaje się być zagrożenie polegające na tym, że sztuczna inteligencja przejmie władzę nad światem albo go zniszczy. Musiałaby stać się w jakimś stopniu świadoma, w pewnej części emocjonalna, potrzebowałaby też znacznie większych zasobów energii, niż to możliwe. A aby „zniszczyć ludzkość”, musiałaby odciąć jej dostęp do elektryczności, której niewątpliwie sama by potrzebowała.
Wielu ekspertów zgadza się z tym, że snucie apokaliptycznych wizji o sztucznej, samoświadomej superinteligencji służy raczej odwróceniu uwagi od bieżących problemów dotyczących inwigilacji, kradzieży własności intelektualnej, bezpieczeństwa cyfrowego i hakerstwa. Nic dziwnego, że przedstawiciele korporacji technologicznych unikają tych tematów – są w końcu jak koncerny tytoniowe twierdzące, że papierosy nie powodują raka płuc, albo paliwowe, przekonujące że spalanie paliw kopalnych nie ma nic wspólnego z globalnym ociepleniem.
Sztuczna inteligencja odbiera ludziom pracę
Faktem jest, że sztuczna inteligencja odbiera i będzie odbierać ludziom pracę. W kapitalizmie liczy się pieniądz, a wydajność maszyn jest znacznie wyższa, niż człowieka. Maszyna czy algorytm nie muszą jeść, iść do toalety, zająć się rodziną i życiem społecznym. Nie chorują, nie proszą o podwyżkę, o urlop ani o ludzkie traktowanie. Nie wspominając o tym, że maszyna nie potrzebuje 18-25 lat na wyrośnięcie, dojrzenie psychiczne i edukację, aby wykonywać pracę. Człowiek owszem. Dlatego w obecnym systemie jeśli robot czy program komputerowy jest w stanie podmienić pracownika ludzkiego, tak się prawdopodobnie stanie. Utrata miejsc pracy jest więc nieunikniona.
Nie oznacza to, że różne zawody całkowicie znikną, bo choćby do nadzorowania maszyn i algorytmów potrzebni będą ludzie. Jednak zapotrzebowanie na pracowników w danym zawodzie będzie mniejsze. Ciężej też będzie wejść do danej branży nowym, młodym ludziom. Oczywiście powstaną nowe zawody, ale niemal na pewno nie zrekompensuje to utraty dotychczasowych miejsc pracy. Ponadto te nowe często będą bardzo wyrafinowane. Tymczasem nie da się stworzyć społeczeństwa z samych specjalistów czy managerów.
Sztuczną inteligencję można użyć do wyrafinowanych oszustw
Jednym z naglących problemów jest stosowanie sztucznej inteligencji do oszukiwania ludzi. Na wyciągnięcie ręki jest generowanie głosu kogoś bliskiego (np. na podstawie opublikowanych filmików albo wykradzionych plików z nagranymi wiadomościami głosowymi), a potem „mówienie” spreparowanym głosem, celem uzyskania haseł czy dostępów do kont. Starych ludzi będzie jeszcze łatwiej nabrać „na wnuczka”, niż dziś. Na skalę społeczną bardzo groźne jest polaryzowanie opinii publicznej fałszywymi zdjęciami i nagraniami (uczyniono tak już w ostatniej kampanii wyborczej do sejmu, pomimo skandaliczności takich poczynań). Tak, jak dotychczas znaliśmy proceder podpisywania prawdziwego zdjęcia z jakiegoś starego wydarzenia i przypisywania go bieżącej sytuacji (np. zdjęcia ofiar katastrofy naturalnej sprzed kilku lat podpisywane jako dowody na zabijanie ludzi przez Izraelczyków w 2023 roku), tak w przyszłości będzie można z łatwością generować fałszywe obrazy i nagrania do podpuszczania ludzi i szczucia jednych na drugich. Przez taką technologię łatwo będzie również oskarżyć kogoś uczciwego, kto publikuje prawdziwe zdjęcia, o to, że rzekomo opublikował te fejkowe – skoro wszędzie ich pełno, to każdy stanie się bardzo podejrzliwy.
Bez silnych regulacji oraz utworzenia wysoce uprawomocnionych instytucji działających na rzecz przestrzegania ich, społeczeństwo może podupaść. Proces ten po części zaszedł w ostatnich 20 latach z powodu nieuregulowania na czas mediów społecznościowych. Dopiero teraz politycy i urzędnicy zabrali się za ten problem, uchwalając Akt o Usługach Cyfrowych i Akt o Rynkach Cyfrowych. Oby nie spóźnili się z tematem sztucznej inteligencji.
Jeżeli podoba Ci się mój artykuł, jak i szerzej moja działalność pronaukowa, dziennikarska i analityczna, zachęcam do dołączenia do grona moich Patronów. Dzięki ich wsparciu mogę utrzymywać i rozwijać tego bloga.
Podsumowania w dużej części sensowne, mam tylko wątpliwości co do części o kradzieży danych użytkowników na potrzeby szklenia AI. Ten watek jest teraz szeroko dyskutowany, jednak nie pojawiły się dotąd wiążące prawnie rozstrzygnięcia czy do kradzieży w ogóle doszło. Umieszczając w internecie treści musieliśmy się zgadzać na warunki strony czy portalu zakładające udostępnianie obrazów czy tekstów firmom trzecim, udzielenie niewyłącznej licencji czy wręcz wprost na uczenie maszynowe. Jasne, było to czasem sformułowane niejasno lub ogólnie, nie chciało nam się tego czytać etc., ale to raczej my zgrzeszyliśmy lenistwem i brakiem wyobraźni. Dzisiejsze oburzenie jest w dużej mierze spóźnione, bazuje też na fałszywych twierdzeniach (generator obrazu jako „maszyna do kolażu”, model AI przechowujący kopie miliardów obrazów i inne bzdury) choć z drugiej strony jest też na tyle głośne, że może doprowadzić do zmian w prawie – to jednak dopiero kwestia przyszłości. Na obecnym etapie ocena czy mamy do czynienia z kradzieżą czy niestety dozwolonym użytkiem jest jeszcze wyłącznie subiektywną opinią.
Zgadzam się, że dziś, żyjemy w „cyfrowym feudalizmie” i mam niejasne podejrzenia, że dotyczący AI spór może się niestety przyczynić, wbrew pozorom, do pogorszenia stanu rzeczy. Wołanie o „etyczne narzędzia AI” jak na razie owocuje kolejnymi produktami korporacyjnymi – szkolonymi na własnych danych – zamkniętymi i płatnymi narzędziami Adobe, Shutterstocka, Getty Images… Możliwe, że najważniejszym wymiernym efektem dyskusji będzie zniknięcie z planszy narzędzi AI tworzonych jako otwarte oprogramowanie, bezpłatne i modyfikowalne, Pojawił się nawet postulat objęcia ochroną prawną samego stylu artystycznego, co pomoże niekoniecznie indywidualnym twórcom ale wielkim studiom już raczej na pewno. Zastrzeżony styl np. animacji konkretnego studia? Nie brzmi to już dziś absurdalnie.
Czy artyści powinni otrzymać rekompensatę za wykorzystanie ich prac do szkolenia modeli AI? Oczywiście? Czy jednak tylko oni? Nie.
Sztuczna inteligencja uczy się na wszystkim, dziełach sztuki, archiwach prasowych, zdjęciach z wakacji, tekstach książek i postów, poezji i hejterskich tyrad. Rekompensata należy się więc nam wszystkim. Tylko jaką powinna przyjąć formę?
Czy AI odbierze nam pracę? Z pewnością ją zmieni, zautomatyzuje czynności rutynowe i twórczość już wcześniej generyczną. Tu jednak widzę przebłyski nadziei. Zalecenia urzędów prawa autorskiego wykluczają uznanie i ochronę autorstwa maszyny, a więc wciąż na pierwszym miejscu stawiany jest jej użytkownik. W projekcie porozumienia kończącego strajk scenarzystów w USA znalazł się zapis, że studio nie może zastąpić autorów sztuczną inteligencją, natomiast scenarzysta jak najbardziej może (o ile tego chce) użyć w swojej pracy narzędzia AI. To byłoby chyba dobre wskazanie kierunku – bo przecież nie ma czegoś takiego jak „sztuka sztucznej inteligencji”, jest za to możliwa jak najbardziej sztuka ludzi używających narzędzi AI.
Gdy korporacje technologiczne wykorzystują czyjeś artykuły czy książki, obrazy, zdjęcia itd. do karmienia modelu AI i robią to bez zgody autorów, to jest to kradzież. To, że ktoś coś umieszcza w sieci, nie oznacza, że zgadza się od razu na wykorzystanie tego do czyjejś pracy. Korporacje technologiczne byłoby stać, aby za używanie treści płacić oraz mogłyby spokojnie tworzyć modele uwzględniające podawanie źródeł treści, z których skorzystano do wygenerowania czegoś.
„To, że ktoś coś umieszcza w sieci, nie oznacza, że zgadza się od razu na wykorzystanie tego do czyjejś pracy.” – W tym jednym punkcie nie do końca się zgadzamy, prawdopodobnie powyżej sformułowałem swą myśl niejasno. Chodziło mi o to, że TOSy, warunki na które musieliśmy się zgodzić, żeby w ogóle móc korzystać ze tron, portali i serwisów, na których publikujemy cokolwiek zostały celowo sformułowane przez zarządzające nimi korporacje w taki sposób, żebyśmy jednak tej zgody udzielili. Nawet nie do końca zdając sobie z tego sprawę, warto wczytać się tu choćby w regulamin fb. Oczywiście język tych warunków nieprzypadkowo jest ogólnikowy i mętny, tu zgadzam się z Panem, że mamy do czynienia z formą wykorzystywania i że rekompensata w formie darmowego korzystania z danego serwisu nie jest wystarczająca (o ile w ogóle się pojawia, a praktyka pokazuje, ze nawet i to będzie stopniowo ograniczane…)
„Umieszczając w internecie treści musieliśmy się zgadzać na warunki strony czy portalu zakładające udostępnianie obrazów czy tekstów firmom trzecim, udzielenie niewyłącznej licencji czy wręcz wprost na uczenie maszynowe.” tak, funkcjonując w internecie MUSIMY udzielać różnych zgód i akceptować różne regulaminy. MUSIMY, bo bez tego nie moglibyśmy skorzystać z powszechnie wykorzystywanego rozwiązania opanowanego przez monopolistę, bo te warunki i regulaminy mają objętość ponad rozsądną normę i napisane są nieprzystępnym językiem. Zatem nasza zgoda jest pozorna, wymuszona. Ja nie zgadzam się na zbieranie i wykorzystywane moich danych, ale bez istotnego ograniczenia modelu mojego życia nic z tym nie mogę zrobić. Czy musimy zatem poddawać się tym mechanizmom? Nie musimy, ale w tym celu musimy jako społeczeństwo narzucić internetowym monopolistom uzdę i kaganiec. Jakimi metodami? To nie jest istotne, byle skutecznymi. Jeżeli tego nie zrobimy, to przy obecnym rozwoju sztucznej inteligencji te monopolistyczne korporacje uczynią z nas niewolników. Nasze życie w demokracji przestanie różnić się od życia przeciętnego Chińczyka. Jaka jest bowiem różnica pomiędzy byciem niewolnikiem KC KPCH, a byciem niewolnikiem zarządu Mety?
„Nawet najbardziej skomplikowany program komputerowy w „najlepszym” razie byłby prawdopodobnie jak mieszanka bytu z rozmaitymi zaburzeniami percepcyjnymi, intelektualnymi i „emocjonalnymi”.
„Byt” to chyba najlepsze określenie, bo z człowieczeństwem nie miałoby to zbyt wiele wspólnego. Większość tych futurystycznych wizji wydaje się mieć wspólny mianownik – ich autorzy zanurzeni są w medycznym paradygmacie, a konkretnej w amerykańskiej psychiatrii wyrosłej z psychoanalizy ego. Silne skoncentrowanie na indywidualności skłania do podobnego postrzegania maszyn – upraszczając: można sobie stworzyć np. robota, który będzie podobny do mnie, będzie podobnie odczuwał, generalnie będzie miał podobny umysł. Takie myślenie wynika z zatarcia granicy między mózgiem a umysłem dokonanym pod wpływem medykalizacji świata zachodniego. O ile mózg należy do sfery biologii i podlega procesom chemicznym, tak umysł należy do świata społecznego i zostaje pod silnym wpływem czynników psychologicznych i społecznych.
Najlepiej uwidacznia się to podczas różnych kryzysów kiedy na wierzch wypływa to, co wg R. Girarda konstytuuje człowieka jako człowieka –
zasada mimesis, bez której nie można powstać żadna ludzka społeczność, a bez społeczności nie ma człowieka.
Nie jestem przekonany, czy silne uregulowanie SI przyniesie wyłącznie albo w większości dobre skutki, podobnie jak w przypadku mediów społecznościowych. Nie podważam twierdzenia, że oba zjawiska niosą ze sobą negatywne efekty, ale skąd mamy pewność, że wprowadzone zmiany będą na lepsze? Weźmy przykład wspomnianych Chin: uregulowanie SI może odbyć się w sposób, który de facto będzie monopolizował użycie Si na rzecz interesu KPCh. Jako że wszystkie korporacje w tym kraju są własnością państwową, to możemy mieć do czynienia z sytuacją, gdy za sprawą przepisów prawa tego typu programy staną się główny narzędziem inwigilacji własnych (i obcych) obywateli oraz szpiegostwa międzynarodowego. Taki TikTok może być na terenie Chin obsługiwany przez SI w sposób promujący zdrowy styl życia, naukę czy chińskie wartości narodowe, a w USA algorytm sztucznej inteligencji może reklamować ideologię „łołk”, używki czy polaryzację społeczną – i to wszystko z nakazu regulacji.
„Po drugie, sztuczna inteligencja nie jest istotą czy bytem ani nie jest inteligentna. To, co tworzy, wydaje się wymagać inteligencji, i m. in. dlatego tak się ją nazywa, ale tak naprawdę aktualne algorytmy tego typu dokonują rozmaitych obliczeń i działań statystycznych na podstawie masy danych, dzięki czemu są w stanie wydać coś sensownego i skomplikowanego. Są jak kalkulatory, tylko zdolne do przetwarzania także tekstu, obrazu i dźwięku, w sposób niezwykle złożony.”
„Sztuczna inteligencja sama niczego nie tworzy. Jest „karmiona” niemal niezliczonymi ilościami danych (tekstów, obrazów, dźwięków). Potem zestawia je statystycznie i kompiluje, generując teksty czy obrazy będące miksem wielu treści, które wcześniej stworzył człowiek: czy to zawodowy malarz, rysownik, pisarz, dziennikarz, czy przypadkowy użytkownik Facebooka, komentujący rozmaite posty. ”
Właściwie to, być może, ludzka inteligencja i proces twórczy działają tak samo lub bardzo podobnie.