logo

02 czerwiec 2024 ~ 11 minut

Czy ChatGPT to sztuczna inteligencja?


Być może tytuł zabrzmi dziwnie, to tak jakby pytać czy kwadrat to prostokąt. Przecież ChatGPT i jego kolejne klony (na przykład Gemini, Claude) tego rozwiązania zrewolucjonizowały to jak korzystamy dzisiaj z internetu, piszemy programy i maile, a dzieci nie potrzebują już marnować cennego czasu na pisanie nudnych wypracowań i liczenie zadań. Nawet sceptycy, których jest wielu w branży IT (oczywiście dlatego, że niedługo zostaną przez swój przedmiot sceptycyzmu pozbawieni pracy) nie mogą zaprzeczyć, że jeśli nie ma rewolucji w ich życiu zawodowym to na pewno jest rewolucja w rozmowach i wszelkiego rodzaju publikacjach medialnych, a jak wiadomo jeśli się o czymś mówi, a tego nie ma, to i tak to jest bo inni o tym mówią (taka samospełniająca się przepowiednia).

No cóż, może trzeba iść z prądem, dołączyć do chóru technooptymistów i mieć nadzieję na to, że w końcu któryś filmik z twittera(a raczej x’a) czy linkedin będzie naprawdę tym co reklamuje i nie zostanie szybko zweryfikowany jako kolejna srebrna kula tylko nie wiadomo na co (tak na marginesie, to akurat od uruchomienia ChatGPT, chyba nikomu nie udało się powtórzyć tego medialnego trzęsienia ziemi i popularyzacji słowa AI w takim tempie). Nie należy takich rozwiązań mylić z przemyślanymi manipulacjami takimi jak niedawne reklamówki Gemini Pro i Devin, chodzi o rozwiązania działające, jednocześnie bezużyteczne. Może trzeba pogodzić się z efektem Duninga-Krugera (w skrócie największymi ekspertami w danym temacie są ci, którzy ledwo coś liznęli) i pozwolić na kreowanie swojego życia zawodowego, a często też prywatnego na czytanie i testowanie kolejnych “rewolucyjnych” rozwiązań. Inna opcja to pójść w otchłań nihilizmu i dekadentyzmu poprzez dołączenie do tzw. AI doomersów, czekając na nieuchronną katastrofę jak z Terminatora. Niestety, ostatnio zamknięto na Oxfordzie Future of Humanity Institute, więc pozostają na razie tylko “podziemne” organizacje. Zresztą nie ma innych, bo te oficjalne też starają się być niemainstreamowe, więc będąc w podziemiu stajemy się mainstreamowi. W obu przypadkach ChatGPT to oczywiście kanoniczny reprezentant AI, tylko raz przedstawiany jako zbawiciel, a innym razem jako diabeł wcielony.

Osobiście, jestem zwolennikiem przyglądania się zjawiskom technologicznym i nie tylko z większą rozdzielczością niż dwie opcje, a także braniem pod uwagę tylko argumentów, które są przedstawiane przez osoby mające doświadczenie w danym temacie oraz umiejące je w jasny sposób przekazać. Dlatego, szukając racjonalnych wyjaśnień często lepiej się słucha osób z doświadczeniem zarówno praktycznym jak i pedagogicznym, co chyba ostatnio umyka wszystkim osobom tak szybko krytykującym środowiska akademickie na rzecz ekspertów z social mediów. Szacunek dla naukowców, którzy się tym nie przejmują i próbują przedrzeć się ze swoim wyważonym przekazem przez tą medialną kakofonię.

Rozmawiając merytorycznie na temat tego co się dzieje w szeroko pojętym świecie technologii informatycznych, a konkretniej AI, warto zdefiniować po arystotelejsku o czym mówimy, to znaczy czym jest sztuczna inteligencja i czy w ogóle rozwiązania, które reprezentują jakąś technologię w mediach (w tym przypadku ChatGPT reprezentuje AI tak jak Michael Jackson muzykę pop) nie powinny być lepiej zrozumiane przynajmniej na poziomie którym wiemy, że w muzyce Michaela Jacksona są inspiracje z innych rodzajów muzyki oraz inni artyści też grają pop być może nawet lepiej.

Co ciekawe sam termin sztuczna inteligencja powstał jak większość albo wszystkie osiągnięcia w technologii IT (i inne) z próżności ludzkiej. Tak, to całkowity mit, że informatycy są z innej gliny i nie mają emocji. Tak samo jak inni naukowcy i humaniści chcą być wyjątkowi (niektórzy w zarobkach, inni w osiągnięciach, jeszcze inni wyróżniać się osobowością w swoim środowisku), w IT też ludzkie cechy górują przy podejmowaniu decyzji nawet tych technologicznych. Jednocześnie, najlepsze organizacje (firmy, fundacje, instytuty, grupy badawcze itp. ) potrafią tym zarządzić i sprawić, że wypadkowa idzie w odpowiednim kierunku. Dlatego tak ważna jest w projektach IT praca zespołowa, otwartość i odpowiednie zarządzanie. Tutaj też słynne powiedzenie Davida Huma: rozum jest niewolnikiem uczuć, jest całkowicie prawdziwe.

Tym razem próżnością(a może strachem) popisał się John McCarthy, który w 1955 roku zaproponował wspólnie z innymi naukowcami kurs sztucznej inteligencji, który później nie okazał się żadnym znaczącym wydarzeniem, poza utrwaleniem nazwy. Co dzisiaj pisze o tym twórca: “One of the reasons for inventing the term ‘artificial intelligence’ was to escape association with cybernetics…I wished to avoid having either to accept Norbert Wiener as a guru or having to argue with him.” No ładnie, nie chciał używać słowa cybernetyka, żeby uniknąć konfrontacji z Wienerem, bez komentarza. Inna sprawa, że nikt wtedy nie rozróżniał specjalizacji w IT, podobnie jak dzisiaj granice między AI a “tradycyjnym” IT są płynne, albo w ogóle ich nie ma, a tylko w dyskusjach i może w rekrutacjach jest to istotne.

Pomijając ciekawe, ale raczej w tonie mojego wstępu definicje w stylu twierdzenia Teslera, które brzmi bardzo prosto: AI to wszystko czego jeszcze nie zrobiono, znajdźmy jakiś solidną bazę na podstawie której można rozstrzygnąć tytułowe pytanie.

Nie ma lepszego źródła jeśli chodzi o obszar sztucznej inteligencji niż swoista encyklopedia o tytule: “Artificial Intelligence, A Modern Approach”, Stuarta Russela i Petera Norviga. Obecna już czwarta edycja wydana w 2021 roku oczywiście nie obejmuje ChatGPT, Gemini i Claude , ale już opisuje architekturę GPT-2, będącą później w kolejnych odsłonach bazą dla obecnie działających rozwiązań, która już w tym czasie zaczyna dominować w zastosowaniach dla generowania tekstów. Jednocześnie stanowi idealny zbiór pojęciowy oraz zakreślenie obszaru technologicznego dla każdego kto chce wgłębić się w obszar AI. Jest ona wydawana co około 10 lat, więc na kolejne wydanie trzeba będzie trochę poczekać. Chyba,że AI zacznie samo pisać kolejne edycje, ciekawe co wtedy w napisze samo o sobie. Sam przeczytałem ją półtora raza, ponieważ w trakcie czytania trzeciej edycji wyszła czwarta i musiałem ją przewertować jeszcze raz, aktualizując sobie to co się zmieniło we wcześniej przeczytanych rozdziałach.

Na początku byłem zdumiony szerokością obszaru AI (sama książka ma około 1000 stron). Odetchnąłem z ulgą, sztuczna inteligencja to nie tylko sieci neuronowe, uczenie maszynowe (wtedy ta para miała wszystko załatwić, pod warunkiem że sieci są głębokie) i przetwarzanie tekstów oraz obrazów, ale też algorytmy w zakresie przeszukiwania, teorii gier, logiki, reprezentacji wiedzy, wnioskowania probabilistycznego, planowania, podejmowania decyzji, komunikacji między agentami. Odnoszę wrażenie, że granica między tak przedstawionym AI, a generalnie uważanymi za nie związane z tym obszarem rozwiązaniami jest bardzo cienka. Bo czy np. nawigacja w smartfonie (a dokładniej użyty w niej algorytm A*) jest sztuczną inteligencją czy nie, tak samo podpowiedzi w wyszukiwarce, nawet reklamy dostosowujące się do zawartości strony nie są tak samo sztuczną inteligencją jak ChatGPT.

Spójrzmy na definicję sztucznej inteligencji, od której zaczyna się książka Russela i Norviga. Zaczynamy od podziału zagadnienia na dwa wymiary: wewnętrzny, czyli procesów myślowych lub inaczej rozumowania oraz behawioralny tzn. widziany z zewnątrz. Pierwszy definiuje dwie kategorie rozumowania: po ludzku i racjonalnie(czasami ludzie nie rozumują racjonalnie, co czasami nie jest takie złe), drugi określa dwie kategorie czynności: myślenie i działanie. W związku z tym, mamy cztery możliwości (kombinacja dwóch wymiarów po dwie wartości każdy), które nam określają dziedziny w których możemy mówić o AI:

  1. Działanie jak człowiek: podejście zwolenników testu Turinga, czyli AI dąży do tego aby człowiek myślał, że jest innym człowiekiem
  2. Myślenie jak człowiek: modelowanie kognitywne, to znaczy skupienie na procesach myślowych i poznawczych, w skrócie AI myśli jak mózg człowieka.
  3. Myślenie racjonalny: podejście skupione na opracowaniu tzw. “praw myślenia racjonalnego”, AI jest swoistym wehikułem przewidującym poprawnie przyszłość na podstawie dostarczonych surowych danych, wie jak działa świat.
  4. Działanie racjonalnie: AI nie tylko rozumuje, ale przede wszystkim działa autonomicznie, dążenie do opracowania tzw. racjonalnych agentów(brzmi strasznie, ale agent to po prostu coś co działa samo, no i sęk w tym żeby działało racjonalnie).

Pozostaje jeszcze trochę podywagować co to znaczy “racjonalnie”. Proponuję założyć, że to oznacza na podstawie znanych nam reguł lub określonych końcowych efektów, które potrafimy zmierzyć. Może to być logika (reguły) lub punkt na mapie czy też gotowy konkretny posiłek (efekty), ważne żeby można było to zmierzyć i na koniec powiedzieć czy AI trzymało się reguł lub osiągnęło założony efekt. Oczywiście autorzy zostawiają szerokie pole do interpretacji, jak rasowi filozofowie, dla chętnych oczywiście polecam zapoznanie się z książką, albo przynajmniej z jej początkiem.

I teraz dochodzimy do clue czy ChatGPT jest sztuczną inteligencją? Nie da się tego określić bez wybrania odpowiedniego obszaru. Najbliżej Russelowi i Norvigowi było do rozpatrywania AI w kontekście racjonalnego działania. W tym obszarze ciężko dopasować ChatGPT z jego bardzo ludzkim sposobem myślenia, ciągłymi halucynacjami i przeprosinami, gdy tylko wskażemy mu, że coś jest nie tak. Ale z drugiej strony generowanie obrazków i czasami posiłkowanie się kodem w celu wyliczenia jakichś konkretnych wartości daje mu mocną kartę w rozważaniach o racjonalności. Jednak, najbardziej moim zdaniem pasuje pisanie o tym rozwiązaniu w kontekście działania jak człowiek, czyli po prostu udawania człowieka, co czyni na swój sposób przekonująco i podczas pierwszego zetknięcia test Turinga zdaje, dlatego że nawet jeśli się myli to jego język jest bardzo przekonujący. Oczywiście, nie pomylimy go z człowiekiem, bo został poinstruowany żeby się przyznawać, że jest modelem językowym (trochę niesłusznie tak nazywanym ale o tym na końcu). Dlatego podsumowałbym, że ChatGPT jest sztuczną inteligencją, która za cel stawia sobie naśladowanie człowieka, w tym przypadku poprzez naśladowanie języka pisanego i mówionego. Dodatkowo ma wbudowanych wiele funkcjonalności, które czynią ten produkt zaawansowanym asystentem obsługiwanym naszym potocznym językiem(także polskim) przy np. generowaniu obrazków, tłumaczeniu, pisaniu prac domowych i wielu innych codziennych czynnościach.

Na koniec ważna dygresja, bo ChatGPT to z zewnątrz taki sam produkt webowy jak inne i w tym co działa w przeglądarce lub aplikacji nie ma nic nadzwyczajnego, sposób działania ma podobny jak inne produkty jak Gmail, Amazon, Allegro itp. Skomplikowany, ale od strony tzw. frontendu nic odkrywczego, interfejs (w żargonie: UI) nie powoduje konieczności nauczenia się innego sposobu klikania. Coś co sprawia, że działa jak działa to tzw. silnik (engine, trochę ogólniejsze pojęcie niż API, bo może działać na wielu warstwach systemów, z kolei trochę coś innego niż architektura, która z kolei jest bardziej abstrakcyjna). Może zdziwicie się, że też nie wyłacznie model GPT-3.5 lub GPT-4. No właśnie nie, spróbujcie skorzystać z API do tych modeli, a już wam nie odpowie, jaki jest dzień i nie wygeneruje programu, który policzy ilość dni między konkretnymi datami, nagle będzie dużo “głupszy” i trzeba jeszcze odpowiednio go umieć uruchamiać i parametryzować.

Siłą ChataGPT są odpowiednio przygotowane zapytania do tych modeli (prompty), odpowiednie nimi zarządzanie i wywoływanie, również rozpoznawanie różnych wzorców i wyłapywanie kiedy jaki sposób obsługi zastosować (standardowe programowanie), skalowalność i podanie danych w odpowiedniej formie, na pewno też klastry serwerów z procesorami CPU i GPU, które muszą być odpowiednio obsługiwane przez fachowców. Same wytrenowane modele to dużo, ale jeszcze więcej i prawdziwy przełom to ewolucja tzw. software i hardware engineeringu, który pozwala na udostępnienie działającej usługi milionom użytkowników w odpowiednim modelu biznesowym (raczej zarabiają na tym?). To dopiero powoduje użyteczność tego rozwiązania i błędem jest mówienie o nim jako pojedynczym modelu lub miksie modeli. To tak jakby mówić, że wyszukiwarka googla działa dobrze bo pod spodem jest dobry algorytm. Nie da się stworzyć produktu działającego na dużą skalę tylko algorytmem, ważna jest cała otoczka informatyczna, która ciągnie to rozwiązanie, a często przykrywa niedoskonałości algorytmu, dlatego AI jakie by nie było nie zastąpi tradycyjnego IT, a najwyżej dostarczy mu dodatkowych narzędzi, które miejmy nadzieję okażą się użyteczne w określonych przypadkach.

Na dzień dzisiejszy obserwujmy, badajmy, korzystajmy i próbujmy, tak jak w przypadku innych technologii IT. Polecana książka skupia się przede wszystkim na konkretnych algorytmach i rozwiązaniach z zakresu zwyczajowo określonego AI. Jednocześnie nie będzie AI bez baz danych, HTTP, systemów operacyjnych, serwerów i tak dalej, więc apeluję o większą pokorę do osób zajmujących się tym obszarem i wzięcie sobie do serca pozdrowienia kamedułów: “Memento, mori”… Żartowałem, wystarczy Steve Jobs: “I didn’t invent the language or mathematics I used. I make little of my one food, none of my own clothes. Everything I do depends on other members of our species and the shoulders that we stand on…”

Przy okazji, zgadnijcie co według developerów (ankieta podcastu Continuous Delivery prowadzonego przez Dave’a Farleya) jest ważniejszym dla nich współczesnym osiągnięciem niż modele językowe. Otóż: GitHub i chmura, ciężko mi się z tym nie zgodzić… Inne zestawienie, tym razem idei: https://danielchasehooper.com/posts/good-ideas-in-cs/ Tu nawet nie ma sieci neuronowych. No cóż, żadne nowoczesne rozwiązanie w IT działające w internecie, by nie zadziałało bez implementacji wszystkich tych idei. Ciekawe jaka będzie ocena za kilka lat, gdy coś innego będzie nazywane AI. Póki co używajmy ChataGPT i innych konkurencyjnych rozwiązań, jeśli oczywiście mamy z tego pożytek. Jednocześnie, starajmy się rozumieć (a informatycy tłumaczyć) z większą rozdzielczością ich działanie, a zwłaszcza środowisko rozwiązań informatycznych, które umożliwiają ich użytkowanie w obecnej skali. Bądźmy też realistami: obecna odsłona rozwiązań AI nas nie zbawią, ani nie zniszczą, to tylko i aż narzędzia wspomagające. Moim zdaniem dobrą analogią póki co są zmiany w produktywności, które umożliwiło wprowadzenie arkuszy kalkulacyjnych, tyle że obszarów w których ChataGPT można zastosować jest więcej.