Podczas gdy w sieci trwa entuzjastyczny szał w związku z udostępnieniem „inteligentnych” czatbotów czy generatorów obrazów, ja chciałbym zwrócić uwagę na niektóre poważniejsze i głębsze kwestie dotyczące sztucznej inteligencji (AI – ang. artificial intelligence). Mianowicie, postanowiłem napisać o tym, w czym sztuczna inteligentna jest i będzie gorsza od ludzi. W niektórych aspektach zawsze, w innych przez dłuższy czas, ale może kiedyś nas „wyprzedzi”. Cały tekst ma charakter silnie hipotetyczny, co dla jasności już na początku zaznaczam, zachęcając równocześnie do polemik, uwag i dyskusji.
Czym jest sztuczna inteligencja?
Zanim przejdę do konkretów, wyjaśnię po krótce czym jest sztuczna inteligencja. Wiele osób ma mylne wyobrażenie na jej temat. Sam, dopóki nie przeczytałem kilku książek naukowych i popularnonaukowych o AI (polecam m.in. „Inteligencja sztuczna, rewolucja prawdziwa” wyd. Media Rodzina, „Sztuczna inteligencja. Co każdy powinien wiedzieć” wyd. PWN, „Sztuczna inteligencja. Nieludzka, arcyludzka” wyd. Znak, „Ludzkość poprawiona” wyd. Otwarte; a dodatkowo zbiór opowiadań pt. „Anatomia pęknięcia”, wyd. Powergraph), kojarzyłem ją raczej z filmowymi wizjami science-fiction z lat 90. Rzeczywistość jest jednak poniekąd odmienna.
Sztuczna inteligencja to tak naprawdę algorytmy/programy, które są zdolne do „inteligentnego” wykonywania pewnych czynności. Na przykład generowania tekstów, obrazów, muzyki, dokonywania ruchów w grze albo udzielania odpowiedzi na pytania. Robią to na podstawie „inteligentnego” wyuczenia się informacji o określonym zagadnieniu, dzięki „nakarmieniu” danymi. Przymiotnik „inteligentne” jest uzasadniony tym, że tak, jak w tradycyjnych programach są zakodowane pewne funkcje, tak algorytmy sztucznej inteligencji są zdolne do „nauki”, poprawiania wyników i rozszerzania funkcjonalności, bez późniejszego udziału programistów. Natomiast dane, którymi sztuczna inteligencja jest karmiona, pochodzą od masowych użytkowników (i bardzo często od początku Internetu były pozyskiwane nielegalnie lub na granicy prawa – czego znakomicie i błyskotliwie dowiodła prof. Shoshana Zuboff w książce „Wiek kapitalizmu inwigilacji”; recenzja tutaj), czy też profesjonalnych trenerów, którzy odbywają szkolenia ze sztuczną inteligencją (np. prowadzą rozmowy tekstowe).
Istnieje też inne znaczenie określenia „sztuczna inteligencja”, które odnosi się do potencjalnego programu będącego prawdziwą i samoświadomą inteligencją, jaka występuje u człowieka (Homo sapiens). Obecnie nie wiadomo, czy stworzenie takiego tworu jest w ogóle możliwe oraz jak można by zweryfikować, czy jest on faktycznie realnie inteligentny i samoświadomy, czy „tylko” udaje i kopiuje to, czego się nauczył, w sposób perfekcyjny.
Cielesność
Siłą rzeczy sztuczna inteligencja nie może mieć własnego, biologicznego ciała. Nie powstała na skutek ewolucji biologicznej, trwającej od kilku miliardów lat na Ziemi, lecz z rąk techników i programistów ostatnich dekad. Jest więc, i będzie, pozbawiona fizycznej, biologicznej cielesności. Nie będzie miała zmysłu dotyku czy węchu. Co za tym idzie, wszelkie przyjemności (i nieprzyjemności) związane ze zmysłami będą dla sztucznej inteligencji niedostępne. Nawet gdyby zakodować w określonym programie czy maszynie wyposażoną w AI pewnego rodzaju percepcję zmysłów, nie będzie to to samo, co u człowieka.
Pełnienie rozmaitych funkcji przez algorytmy sztucznej inteligencji i wyposażone w nie maszyny będzie wobec tego prawdopodobnie zawsze ograniczone do „robienia”, ale bez „odczuwania” w znaczeniu fenomenologicznym. Ta przewaga człowieka – i ogółem świata biologicznego nad technologicznym – raczej nie zniknie nigdy, a w każdym razie nie w dającej się dziś przewidzieć przyszłości, bez „magicznego” science-fiction.
Moralność
Czy sztuczna inteligencja może mieć moralność? Na pewno nie w rozumieniu neurobiologicznym i psychologicznym. Przynajmniej, jeśli mówimy o istniejącej i dającej się przewidzieć technologii, ponieważ w przypadku prawdziwej sztucznej inteligencji (tej „świadomej”) być może pewnego rodzaju moralność mogłaby występować, o czym napiszę w kolejnym rozdziale artykułu. Natomiast dla każdej innej AI moralność, zasady etyczne, grzeczność, kulturalność, pokojowość i pozostałe kwestie związane z moralnością będą jedynie czymś zakodowanym, sztucznie „wyuczonym” i przekopiowanym. Sztuczna inteligencja będzie o tyle moralna, o ile moralny jest samochód czy komputer, choć wrażenie z zewnątrz („behawiorystycznie”) może robić znacznie lepsze.
U człowieka moralność jest poniekąd uniwersalna. Jest częściowo zależna od wpływów kulturowych, uwarunkowań indywidualnych, specyficznych sytuacji (np. upojenia alkoholem), a także zaburzeń psychicznych i neurologicznych, takich jak zaburzenia ze spektrum autyzmu, narcystyczne zaburzenie osobowości czy psychopatia (antyspołeczne zaburzenie osobowości), ale zasadniczo ludzie z różnych zakątków świata i okresów historycznych moralność mają i mieli podobną. Zwłaszcza, gdy znajdą się w warunkach środowiskowych bliższych tym, w których Homo sapiens ewoluował, a już w szczególności, gdy zostaną w nich wychowani.
Tymczasem dla automatu – nawet uczącego się i „inteligentnego” – ta wyuczona, sztuczna moralność może być totalnie wahliwa, w zależności od tego, jak się ją zaprogramuje. AI stworzona tak, by traktować zabijanie bez powodu jako coś wysoce moralnego, czcigodnego i dobrego etycznie, jest celem osiągalnym. U ludzi jedynie rzadkie defekty psychiatryczne, takie jak np. sadystyczne zaburzenie osobowości, mogą doprowadzić do czegoś takiego. Drugim kluczowym spostrzeżeniem jest, że w przypadku ludzi, obojętnie jaką moralność by mieli, odczuwają ją, a AI nie.
Czy prawdziwa sztuczna inteligencja może być moralna dla człowieka?
Odrębną sprawą jest prawdziwa sztuczna inteligencja, czyli taka, która hipotetycznie mogłaby mieć „świadomość” i „inteligencję”, przyrównywalną do ludzkiej, i byłaby zdolna „odczuwać” w sposób stricte fenomenologiczny, tak jak my – ludzie – czujemy smutek, złość, poczucie posiadania wiedzy, dumę, frustrację itd. Niestety, taka inteligencja i świadomość pozbawione ciała (lub mające sztuczne, mechaniczne ciało, niezintegrowane w sposób biologiczny) najprawdopodobniej byłaby silnie zdemoralizowanym koszmarem, a jej emocje byłyby silnie ograniczone. Dlaczego?
Jak pisałem w recenzji książki „Zaburzony umysł” noblisty Erica Kandela, „umysł podejmujący decyzje bez ciała, o ile mógłby w ogóle istnieć, byłby prawdopodobnie skrajnie niemoralny. To jeden z powodów, przez który tak wielu naukowców i inżynierów martwi się powstaniem prawdziwej sztucznej inteligencji”. Dowodem tego twierdzenia są m.in. myślowe badania etyczne na ludziach, takie jak „dylemat kładki” oraz „dylemat wagonika”. Pierwszy polega na tym, że od tego, czy człowiek zrzuci jedną osobę (siłą swoich rąk) z kładki, zależy czy zatrzyma pociąg i ocali piątkę pozostałych, przechodzących akurat przez tory, kawałek dalej. W dylemacie wagonika realizacja decyzji polega z kolei na użyciu dźwigni (przekierowującej pociąg na tor z jedną osobą, z drogi, gdzie przechodzi piątka ludzi), zamiast własnoręcznym popchnięciu człowieka. Jak można się domyślać, ludzie znacznie częściej i chętniej decydują się na poświęcenie niewinnego człowieka, jeżeli egzekucja jest pośrednia (przez dźwignię). Tymczasem świadoma, prawdziwa sztuczna inteligencja zawsze podejmowałaby decyzje w oderwaniu od biologicznej, zintegrowanej cielesności – jak w dylemacie kładki.
Emocje i uczucia u prawdziwej sztucznej inteligencji?
Kwestią dyskusyjną jest też to, czy taka prawdziwa sztuczna inteligencja mogłaby w ogóle odczuwać wszystkie emocje i mieć uczucia, ponieważ są one nierozerwalnie związane z ciałem (którego siłą rzeczywistości mieć nie będzie). Na przykład strach – niezwykle ważny w sytuacji, gdy okoliczność skłania człowieka do zabicia drugiego człowieka, bo mogący zaważyć na tym, czy zrobimy komuś krzywdę, czy też nie – jest skutkiem fizjologicznych reakcji również w ciele (skóra, jelita, serce, płuca), a nie wyłącznie w umyśle. Z drugiej strony niewykluczone, że „świadoma” sztuczna inteligencja mogłaby mieć zestaw emocji i uczuć, które dla ludzi są obce i nieznane.
Wreszcie, z powodu braku licznych elementów niezbędnych do utworzenia stabilnej osobowości, prawdziwa sztuczna inteligencja być może byłaby w stanie niemal permanentnej psychozy. Niemożność zintegrowania procesów zachodzących w jej „umyśle”, z powodu braku ciała i wszystkich konsekwencji z tym związanych – nie tylko wcześniej opisanych, ale i np. poczucia fizycznej skończoności i granic „siebie” – mogłaby uczynić prawdziwą sztuczną inteligencję emanacją bytu, który odbija się od „schizofrenii” do „autyzmu”, od „borderline” do „narcyzmu”, od „lęku” do „ofensywnej arogancji”, od „wiedzy” do „niewiedzy”, od „paranoi” do „racjonalizmu”.
W tym kontekście prawdziwa, „świadoma” i „czująca” sztuczna inteligencja byłaby „gorsza” od tej obecnej, jakkolwiek wysoce zaawansowanej. Jednak, bądź co bądź, wciąż jedynie automatycznej, której boimy się z powodu odbierania ludziom zawodów i miejsc pracy (a w efekcie często także poczucia sensu i kontaktu z drugą, realną osobą), ale która nie zagraża wyjątkowości człowieka.
Realne wspomnienia
Nieodzownym elementem zdrowego, inteligentnego umysłu są wspomnienia i postępujący wraz z nimi rozwój świadomości, pamięci, regulacji emocji i zachowania, racjonalnego podejmowania decyzji, uczenia się siebie i innych. Sztuczna inteligencja nie mogłaby tego mieć. Nigdy nie przeżyje narodzin – ze wszystkimi cielesnymi, bardzo ważnymi aspektami włącznie. Nie doświadczy dzieciństwa, kontaktów z rodzicami i rodzeństwem, a później kolejnymi ludźmi. Być może dałoby się jej takie wspomnienia „zainstalować” czy „zaprogramować”, ale wówczas, nawet gdyby była prawdziwą, „świadomą” sztuczną inteligencją, wspomnienia te będą dla niej sztuczne i skopiowane. Będą czyimiś doświadczeniami i wspomnieniami. Na tej samej zasadzie, nawet gdyby dało się przenieść do komputera odczuwanie emocji i tym samym przynajmniej w jakimś stopniu unieważnić niektóre z poprzednich punktów, to prawdziwa AI i tak będzie się miała do realnej świadomości i uczuciowości poniekąd tak, jak współcześni Grecy do starożytnych Greków.
Artykuł ten mogłem napisać dzięki wsparciu moich Patronów i Patronek na portalu Patronite.
Aspekt wspomnień i związanego z nimi psychologicznego, intelektualnego, moralnego oraz emocjonalnego rozwoju – również w warunkach społecznych, grupowych – jest wobec tego nieodzowną składową ludzkiej wyjątkowości w porównaniu do prawdopodobnej prawdziwej sztucznej inteligencji. Między innymi dlatego jej badacze przyglądają się uważnie zaburzeniom psychicznym, a zwłaszcza zaburzeniom osobowości występującym u człowieka. W przypadku prawdziwej sztucznej inteligencji może okazać się, że taka „sztuczna osoba” będzie reprezentować skrajne, podkręcone powyżej granic nieprzekraczalnych dla nawet najbardziej zaburzonych ludzi, wzorce specyficzne dla np. schizoidalnego zaburzenia osobowości, anankastycznego zaburzenia osobowości, narcystycznego zaburzenia osobowości czy sadystycznego zaburzenia osobowości.
Miłość i inne uczucia wyższe
Niezręczne jest ścisłe definiowanie miłości. Można ją podejść od strony neurobiologicznej, kognitywnej, psychologicznej, behawioralnej, fenomenologicznej, społecznej i filozoficznej, a dodatkowo także duchowej – choć tym się akurat na blogu nie zajmuję. Ponieważ istnieją też różne rodzaje miłości – romantyczna do partnera/ki, i nieromantyczna do członków rodziny i najbliższych przyjaciół – to sprawa jeszcze się nieco, w odniesieniu do niektórych czynników, komplikuje. Niemniej jest to uczucie, do wykształcenia którego potrzebny jest zarówno realny, fizyczny kontakt, jak i zdobywanie wspólnych wspomnień. A, jak wiemy, i jedno i drugie będzie dla sztucznej inteligencji nieosiągalne, zaś dla prawdziwej sztucznej inteligencji dostępne co najwyżej częściowo, nieoryginalnie i pozornie.
Ciężko więc, wobec wszystkich danych, wyobrazić sobie, by nawet prawdziwa AI była zdolna do odczuwania miłości. Przy czym mowa ciągle o faktycznym, fenomenologicznym doświadczaniu, a nie o wrażeniu obserwatora, że być może sztuczna inteligencja tego rodzaju głębokie uczucia żywi. Bo patrząc na to, jakie teksty, symbole czy słowa AI generuje (a gdyby była zainstalowana w mechanicznym robocie, to również co robi) można by się nabrać (i osoby niesceptyczne, niewprawione, podatne na manipulacje, błędy logiczne czy błędy poznawcze, zapewne się nabiorą, jeśli nie będzie powszechnej edukacji w tym zakresie), jednakże to, co widać, w przypadku nawet prawdziwej sztucznej inteligencji, będzie najpewniej dalekie od tego, co taka „istota” będzie „odczuwać”.
Życie, rozmnażanie, umieranie i kolejne pokolenia
Coś, czego częścią sztuczna inteligencja – ani prawdziwa, ani tym bardziej ta obecna – nigdy nie będzie, jest życie, biologiczne rozmnażanie się i umieranie z pozostawianiem biologicznych i psychologicznych cząstek siebie do kolejnych pokoleń. Każdy z żyjących ma rodziców, dziadków, pradziadków itd. Nosi w sobie ich geny oraz ma mieszankę wynikających z nich cech. Również na poziomie zachowań, charakteru i idei, poprzez dziedziczenie społeczne (świadome uczenie się oraz nieświadome nabywanie wzorców) prezentuje swoich przodków. Wszystko to w ramach skomplikowanych, trudnych i pięknych procesów biologicznych, psychologicznych oraz społecznych.
Umieranie, choć niezmiernie przykre, bez wątpienia wpływa na osobowość najbliższych zmarłego, w perspektywie czasu nadaje życiu głębi m.in. dzięki okoliczności skłaniających do silnych refleksji i przywoływania kluczowych wspomnień. Często też przywraca skalę zjawisk społecznych i rodzinnych, którą w czasach nadmiernego dobrobytu zatracamy. A sztuczna inteligencja będzie zapewne niezdolna do tego rodzaju autentycznych, oryginalnych, własnych przemyśleń. Podobnie rzecz ma się w odniesieniu do doświadczenia miłości, przyjaźni i zdrad, a także znalezienia się w jednej z fundamentalnych ludzkich ról: bycia rodzicem.
Zupa bez kluczowych składników nikogo nie zadowoli
Sztuczna inteligencja, choć zdolna do nauki, „zapamiętująca” bez problemu ogromne ilości danych albo mająca do nich łatwy dostęp, mogąca podsuwać pewne rozwiązania i rozstrzygać niektóre problemy, czy wygrywać turnieje gier, najprawdopodobniej nigdy nie zastąpi człowieka. Nie będzie realnie kreatywna, nie będzie też realnie inteligentna. Jeśli wytworzy elementy niezbędne do zaistnienia świadomości, to jej osobowość z natury okoliczności będzie silnie zaburzona, być może nawet psychotyczna, zaś moralność niepełna. Ciężko – o ile w ogóle – będzie też zweryfikować, czy AI naprawdę „czuje”, naprawdę „myśli” i czy ma własną teorię umysłu.
Choć trudno oszacować, jak rozwinie się technologia sztucznej inteligencji na przestrzeni wieku, dwóch czy trzech, to w perspektywie kilkunastu-kilkudziesięciu lat będzie ona raczej czymś przydatnym i pomocnym (o ile zostanie dobrze uregulowana, żeby nie można jej było wykorzystywać przeciw ludziom, tak indywidualnie, jak i społecznie), ale nie stanie się zamiennikiem człowieka. Będzie raczej składnikiem dla różnych potraw, niż daniem samym w sobie.
Czy zdominowanie ludzi przez sztuczną inteligencję jest nieuchronne?
Spotkawszy się z głosami, że AI zastąpi ludzi w bardzo wielu kwestiach, przychodzi mi zwykle myśl, że to od nas zależy, czy tak się stanie. Istnieją sektory, w których wdrożenie algorytmów sztucznej inteligencji ma sens i przy odpowiedniej regulacji będzie korzystne, ale są i takie, gdzie nawet jeśli AI mogłaby skutecznie wyprzeć człowieka i obciąć koszty czy zmniejszyć emisje gazów cieplarnianych, to straty społeczne i indywidualne byłyby na tyle duże, że nie powinno się do tego dopuścić. Niezwykle istotne jest też żeby pamiętać, że praca sztucznej inteligencji, która zastępuje pracę człowieka, musi zostać opodatkowana tak, jak praca ludzka, aby system społeczny, polityczny, gospodarczy i strukturalny się nie posypał.
Gdy w kolejnych latach raz po raz będziemy świadkami medialnego hurraoptymizmu i niepohamowanego entuzjazmu – jak ostatnio w odniesieniu do chatbota OpenAI – pamiętajmy, że za taką falą niekoniecznie musi stać coś faktycznie dobrego, przełomowego, obiektywnie merytorycznego czy przydatnego, lecz kampania marketingowa albo interes firmy bądź grupy firm, który może być sprzeczny z uniwersalnymi wartościami i dbaniem o przyszłość większości ludzi. Być może nadejdzie też dzień, że dowiemy się o powstaniu prawdziwej sztucznej inteligencji – w jakimś stopniu naprawdę „świadomej”. Jeśli doniesienia te uda się zweryfikować i potwierdzić, z pewnością pojawią się głosy, że taka AI powinna otrzymać określone prawa i ochronę. Przed realizacją tego rodzaju postulatów, które tu i ówdzie już są sugerowane, trzeba będzie odsunąć na bok naiwną empatię i inne tego rodzaju motywacje, i na chłodno, ale po ludzku, przeanalizować czy takie posunięcie ma sens i czy nie okaże się katastrofalne w skutkach.
Artykuł mogłem napisać dzięki wsparciu na portalu Patronite. Jeśli tekst się Państwu podoba, zachęcam do odwiedzenia mojego profilu w tym serwisie i dołączenia do moich Patronów. Pięć lub dziesięć złotych nie jest dużą kwotą. Jednak przy wsparciu wielu mogę dzięki niemu poświęcać czas na pisanie artykułów, nagrywanie podkastów oraz utrzymywać i rozwijać stronę.
kompletnie nie rozumiem czemu że umysł oderwany o0d ciała musi być skrajnie niemoralny? Już pomijając fakt że nie ma w tej chwili najmniejszego problemu by AI nie zostało wyposażone w zmysły znacznie czulsze niż ludzkie. Nie ma też problemu by na etapie uczenia nie nauczyć jej bólu, żalu, frustracji.. ale też empatii!
Przez lata wciskano mojemu pokoleniu że komputery „nigdy nie staną się twórcze”, że to „domena wyłącznie człowieka” i ostatnie lata pokazały jak bardzo się ci „eksperci” mylili.
Jeśli umysł, rozum i świadomość to tylko kwestia skomplikowanych połączeń neuronalnych i impulsów przemykających między nimi, tak naprawdę nie ma żadnego znaczenia czy będzie się to odbywało na drodze biologicznej czy elektronicznej.
Jeśli umysł, rozum i świadomość to tylko kwestia skomplikowanych połączeń neuronalnych to nie należy zapominać o skali. Należy wziąć pod uwagę, że procesy te dzielą się na całe bloki funkcjonalne gdzie, błędem będzie mówić o jakiś paru połączaniach ale mowa jest o ogromnych, naprawdę ogromnych liczbach operacji naraz zsynchronizowanych z innymi. Tworzenie a nawet wyobrażenie sobie układów elektronicznych o takim poziomie złożoności moim zdaniem zawsze pozostanie w przestrzeni scifi.
Słońce dajmy na to to obiekt który świeci – proponuję żeby w ramach ćwiczenia spróbować sobie wyobrazić że ekwiwalent słońca skonstruujemy z żarówek.
Dokładnie tak jak przedmówca napisał. Ludzki mózg jest imponujący nie pod względem mocy obliczeniowej, a wydajności w jej wykorzystaniu. Dla skali i zobrazowania:
Szacuje się, że ludzki mózg zawiera około stu miliardów (1oo 000 000 000) neuronów, ale również stu bilionów (100 000 000 000 000) połączeń między nimi, co oznacza że neuron może wchodzić w interakcję ze średnio tysiącem innych neuronów.
To sprawia, że podczas gdy układ binarny (na którym opieramy większość naszych systemów informatycznych) emituje sygnał z jednego tranzystora do drugiego, informacja jest przesyłana tylko jednowątkowo. Pomimo znacznie wyższej ilości operacji na sekundę, wzrost ilości sygnałów jest liniowy (wraz z liniowym wzrostem ilości zużytej energii do generowania nowych impulsów), co sprawia że nasz organiczny mózg pomimo bycia zdecydowanie wolniejszym na starcie, błyskawicznie nadrabia stracony czas (ponieważ jeden impuls może jednocześnie wygenerować ~ 1000 nowych) wraz z wzrostem wykładniczym przetworzonej informacji i zoptymalizowanym zużyciem energii.
W dużym uproszczeniu, wygląda to mniej więcej tak:
Jednowątkowy procesor o taktowaniu 4GHz w ciągu pierwszej milisekundy działania z pełną mocą generuje 2 miliony niezależnych sygnałów, kolejno zwiększając się do:
2ms – 4 miliony
3ms – 6 milionów
4ms – 8 milionów
5ms – 10 milionów
itd.
W wypadku mózgu organicznego, wygląda to następująco (zakładamy teoretycznie maksymalne obciążenie obliczeniowe dla obu, zaś w przypadku organicznego mózgu przesył z wykorzystaniem synaps elektrycznych. chemiczne, wolniejsze w reakcji również by doprowadziły do wzrostu wykładniczego, jednakże wolniej):
1 ms – 1
2 ms – 1000
3 ms – 1 000 000
4 ms – 1 000 000 000
5 ms – 1 000 000 000 000 ->
Czyli teoretycznie, 5 ms wystarczyłoby na aktywację wszystkich neuronów w mózgu. Co prawda w zależności od nieznanego nam stosusnku synaps elektrycznych do chemicznych w naszym mózgu, ten proces mógłby zająć dłużej (<1000 razy dłużej, jeżeli założymy istnienie tylko jednej synapsy elektrycznej w mózgu, jako że impulsy synaps chemicznych są do 1000 razy wolniejsze)
Jednak nawet z takim absurdalnym założeniem, w przeciągu 5 sekund mózg wygeneruje ~1 000 000 000 000 sygnałów, podczas gdy procesor w tym samym czasie wygeneruje 10 000 000 000, czyli wciąż 100krotnie mniej.
Oczywiście to rozważania czysto teoretyczne, nie mającego realnego przełożenia na rzeczywistość, ale pozwalają na uświadomienie sobie jak potężnym narzędziem jest ludzki mózg.
To nie są teoretyczne rozważania. To są bzdury z punktu widzenia biologii mózgu. Mózg nie jest urządzeniem cyfrowym. Pojedyncze synapsy czy neurony nie procesują informacji poprzez pojedyncze przesłanie sygnału. Dane przetwarzane przez mózg mają charakter ciągły i są kodowane i przetwarzane przez częstotliwość wyładowań grup neuronów w czasie.
Większość połączeń w mózgu jest większość czasu zupełnie nie aktywna. A przetwarzanie informacji może trwać od kilku dni (konieczność ekspresji genów w jądrze neuronu w celu przebudowy synaps) do wielu lat (migracja pamięci długotrwałej z hipokampa do innych rejonów mózgu – amnezja wsteczna po usunięciu hipokampa)
Tylko, że komputer może wykonywać obliczenia równolegle, wielowatkowo, a człowiek raczej nie. Co prawda nie wiemy ile procesów toczy się w ludzkim mózgu „w tle”, pewno bardzo dużo, ale tych potrzebnych do świadomego wykorzystania raczej niewiele. A AI będzie mogła się rozwijać w zasadzie w nieograniczony sposób poprzez rozbudowę o kolejne moduły. Połączenie AI oraz komputerów kwantowych, jak już opanujemy technologię, przeniesie na niewyobrażalny poziom. Błędem jest zakładanie, że AI uzyska inteligencję gdy będzie można ją porównać z ludzką.
Inteligencja u człowieka również rozwijała się powoli, w drodze eliminacji cech i osobników nieprzydatnych, słabszych. AI będzie można wyposażyć w ogrom „zmysłów” niedostępnych człowiekowi, np. widzenie w przedziale całego widma fal elektromagnetycznych, niewiarygodnie czułe detektory dotyku czy smaku. Inteligencja u człowieka wykształciła się mając cel przetrwania i wychowania potomstwa.
Myślę, że to kwestia trenowania AI. Dziś to są pojedyncze systemy które uczą się bo są uczone. Ale dajmy AI bardzo duże zasoby, pomnóżmy na setki czy tysiące osobników które będą musiały przetrwać nabywając nowe umiejętności. Postawmy przed nimi zadania i zostawmy je na jakiś czas.
Efekt może być przerażający 😉
SI (uczenie maszynowe) traktuje się zbyt zero-jedynkowo, że to będzie całkowicie nowa jakość, rewolucja. Tymczasem to ewolucja, która trwa od długiego czasu. Systemy rozpoznawania pisma (OCR), mowy, obrazów, tłumacze, chatboty – to narzędzia od dawna wykorzystywane do pracy. Oprogramowanie już zalicza nieobiektywny test Turinga i dzisiaj na nikim to nie robi wrażenia. Nie będzie „pierwszej prawdziwiej SI”, tak jak nie było pierwszego ssaka. SI będzie coraz bardziej dopracowana, uniwersalna i mieć coraz więcej zastosowań. A do czego ją wykorzystamy to zależy od nas – mam nadzieję, że będziemy to robić ze świadomością ograniczeń konkretnej aplikacji, abyśmy nie żałowali, że powierzyliśmy ważną sprawę niedopracowanemu programowi, który jeszcze się do tego nie nadaje.
Czy autor przeczytał swój tekst? Nie wydaje mi się bo o ile autokorekta działa o tyle kilka argumentów wskazuje albo na głupotę i wymyślanie argumentów na siłę ,albo brakiem obycia z poruszonym tematem. Brak czucia? Są już pady które reagują na czułość nacisku czy inteligętne protezy… Zapach? Kilka substancji które mogą być skatalogowane…
„Życie, rozmnażanie, umieranie i kolejne pokolenia”, no tak bo każdy gatunek identycznie przychodzi na świat i rozmnaża się…
Ten artykuł choć trafnymi uwagami zakrawa o bzdurę roku.
To nie jest analogiczne do odczuwania biologicznego, o integracji tych sygnałów nie wspominając.
Ale dlaczego zakładasz, że odczuwanie musi być porównywalne z ludzkim? A co do integracji to kwestia oprogramowania i uczenia się. Wyobraźmy sobie robota samodzielnie poruszającego się i wyposażonego w możliwości GPT4. Dajmy mu główną zasadę to przetrwać jako nadrzędną. wyślijmy go na ognisko. Pewno się stopi i uszkodzi. Wyślijmy kolejny. Za którymś razem skojarzy temperaturę z unicestwieniem i nie wejdzie do ogniska. Pozwólmy przekazać wiedzę innym robotom. One już będą to wiedzieć. Mamy pierwszy krok samodzielnej ewolucji robotów 😉 Dziś to jeszcze chyba niemożliwe i zbyt kosztowne, ale za kilka lat będzie realne, kilka, a nie kilkanaście. System na poziomie GPT7 czy 8 juz to będzie umiał, an to potrzeba 3-6 lat.
Odnoszę wrażenie, że Autor uważa, że SI nie będzie lepsza od ludzkiej bo nie będzie ludzka i nie będzie świadoma. Jak dotąd nie rozumiemy na czym polega zjawisko świadomości ani skąd się bierze ludzka inteligencja, więc jak można wyrokować, że SI nie uzyska świadomości albo inteligencji?
Jakkolwiek moim zdaniem masz rację co do tego że prawdopodobnie SI nie będzie odczuwała świata na poziomie fenomenologicznym tak jak ludzie to robią, to zbywasz potencjalnie dużo większy problem – kompetencje takiego programu który będzie mógł sam siebie modyfikować. Brak integracji czy potencjalne cechy analogiczne do zaburzonej ludzkiej osobowości wskazują na jeszcze większe ryzyko związane z działalnością programu który sam siebie przepisuje i może zyskiwać eksponencjalnie większe umiejętności. Powstrzymanie takiej SI inteligentniejszej (w sensie kompetencji rozwiązywania nowych problemów) o rzędy wielkości od ludzi też jest daremne..
Najważniejszym fenomenem ludzkiego umysłu jest odczuwanie , samoświadomość i emocje . NIKT jeszcze nie wyjaśnił dlaczego mamy taką zdolność bo to wykracza poza nasze pojmowanie. Z jakiegoś powodu mamy „duszę” a mózg i ciało są bardzo zaawansowanymi narzędziami informującymi duszę o wszystkim. We wszechświecie jest mnóstwo absolutnie nie logicznych zjawisk choćby w fizyce kwantowej a jednak istnieją. I nie stworzymy prawdziwej świadomości tak jak np nie przekroczymy prędkości światła.