Niewiele jest określeń równie nieprecyzyjnych jak „sztuczna inteligencja”. Już w czasach pierwszych, lampowych maszyn liczących nadawano im w popularnych publikacjach patetyczną nazwę „mózgów elektronowych”. Przez całe dziesięciolecia projektanci programów zarządzających funkcjonowaniem komputerów starali się zapewnić sposobowi ich komunikowania się z człowiekiem formę dialogu słownego. W końcu ubiegłego stulecia firma Microsoft dla potrzeb masowej informatyki stworzyła system bez barier językowych. Jest to system Windows, ale on także symuluje dialog ze swoim użytkownikiem, tyle że przy pomocy pisma obrazkowego. Posługiwać się nim może nawet analfabeta.
Podobnie bardzo szeroka już dziedzina techniki, z którą spotykają się np. właściciele niektórych modeli samochodów, kiedy auto samo gwałtownie hamuje, by uniknąć kolizji na parkingu, uważana jest za mieszczącą się w zakresie znaczenia nazwy sztucznej inteligencji. Bardziej poprawne jednak jest mówienie tu o robotyce albo internecie rzeczy, które opierają się na wykorzystaniu mikroprocesorów. Są one zainstalowane w samych urządzeniach, takich jak samochody, tzw. inteligentne budynki czy automaty stosowane w przemyśle. Z zasady współpracują z czujnikami, kamerami czy mikrofonami, które dostarczają informacji o otoczeniu. Nie wymagają też komputerów o dużych mocach obliczeniowych ani dostępu do gigantycznych ilości danych.
Pomóż w rozwoju naszego portalu
Reklama
Nazwa sztucznej inteligencji obejmuje także inne zachowania urządzeń, np. rozpoznawanie i przetwarzanie obrazów. Po prostu trzeba się pogodzić z faktem, że termin ten jest bardzo rozciągliwy.
Test Turinga
Wyobraźmy sobie, że siedzimy przed ekranem komputera. Pojawia się na nim tekst dialogu. Naszym zadaniem jest ustalenie, które wypowiedzi są sformułowane przez człowieka, a które generuje program komputerowy. Taki eksperyment jest znany jako test Turinga. Jego autorem był angielski matematyk, kryptolog Alan Turing. Jest on uważany za jednego z twórców informatyki teoretycznej – dyscypliny naukowej, a nie gałęzi techniki. Przyjmuje się, że test Turinga jako pierwszy przeszedł pomyślnie algorytm o imieniu Eugene Goostman, udający nastolatka. Stało się to w londyńskiej siedzibie Królewskiego Towarzystwa Naukowego w 2014 r. – 64 lata po postawieniu wyzwania („czy możliwe jest, aby maszyna wykazywała inteligentne zachowanie?”) przez angielskiego naukowca.
Osiągnięcie tego celu już w trzecim pokoleniu informatyków jest uważane za wielki sukces tej dziedziny wiedzy i techniki. Jak do tego doszło?
Model językowy
Komputer nie przeprowadza operacji na literach lub słowach, a wszystko, czym dysponuje, to dwie cyfry – zero i jeden. Odpowiadają one dwóm stanom podstawowego elementu pamięci półprzewodnikowej. Litery, słowa, zdania, książki i całe biblioteki reprezentowane są w systemie przez różne kombinacje cyfr 0 i 1. Dzięki temu mogą być one traktowane jako liczby zapisane w systemie dwójkowym i stanowić dane w procesach przetwarzania tekstów.
Reklama
Algorytmy, czyli sposoby postępowania z danymi tekstowymi, które pozwalają na uzyskanie efektu rozmowy, są niezmiernie skomplikowane. Kluczowa jest możliwość samokształcenia się przez program komputerowy. Musi się on nauczyć reguł języka, analizując wielkie ilości tekstów i tworząc matematyczny „model językowy”. Jest to niezbędny do jego działania wstępny trening. Autorzy takich programów inspirowali się działaniem rzeczywistej, biologicznej sieci neuronowej.
Systemy te nie pojawiły się nagle, początki modeli językowych funkcjonowały już w końcu drugiej połowy ubiegłego wieku. Obecnie istnieją one w dwóch klasach, jedna – nazwana małymi modelami językowymi – dostosowana jest do konkretnych potrzeb, np. zawodów prawniczych. Są one trenowane na zbiorach kodeksów, ustaw i innych dokumentów sądowych. Drugą klasę stanowią wielkie modele językowe – są one szkolone na naturalnym języku, literaturze, prasie i wymagają jeszcze więcej tekstów celem samodoskonalenia oraz superkomputerów o dużej mocy obliczeniowej.
Ciekawostką jest to, że jako specjalizowane koprocesory – te, które współpracują z procesorem głównym – dobrze sprawdziły się procesory graficzne, niegdyś zaprojektowane do przetwarzania obrazów. Po prostu typ operacji matematycznych wykonywanych w obu zadaniach jest bardzo zbliżony.
ChatGPT
Reklama
Jeden z takich programów trafił już „pod strzechy”. Jego nazwa – ChatGPT oznacza pogawędkę ze wstępnie do tego przygotowanym komputerowym rozmówcą. Jeżeli wpiszemy jakieś pytanie w zwykłą wyszukiwarkę internetową, otrzymamy zazwyczaj wielką ilość odpowiedzi w postaci stron do przejrzenia i sami wybieramy to, co nas interesuje. Program ChatGPT dokonuje tego za nas i formuje odpowiedź w języku zadanego pytania. Odpowiedzi są z zasady zrozumiałe i podane w czytelnej formie, gdy jednak zadaje się programowi pytania o tematyce społecznej lub historycznej, należy pamiętać, że jest on do bólu politycznie poprawny. Zwykle udaje się nakłonić go do pewnych ustępstw. Mimo że podstawową funkcją ChatGPT jest naśladowanie ludzkiego rozmówcy, to potrafi on też napisać artykuł, wiersz, szkic kazania i przemówienia czy streścić lub przetłumaczyć tekst.
ChatGPT jest własnością OpenAI, organizacji założonej w 2015 r., która zajmuje się badaniami w dziedzinie sztucznej inteligencji. Jego podstawowym językiem jest angielski. Był trenowany głównie na Wikipedii, książkach, artykułach prasowych i anglojęzycznym internecie.
Bielik
Teoretycznie wielkie modele językowe są poliglotami, jednak nie do końca. Dlatego za bardzo cenną należy uważać inicjatywę budowy polskiego wielkiego modelu językowego, który jest trenowany na polskich tekstach – prasie, internecie, literaturze, także tej już mocno zapomnianej. W Bielika – tak nazywa się ten projekt – są wpisywane polskie czynniki kulturowe i niuanse naszego języka. ChatGPT jest jak Amerykanin, który opanował perfekcyjnie polską mowę, ale nie wie, że na pytanie: „jak się masz?”, nie odpowiada się: „dziękuję, świetnie”, tylko „e tam, stara bieda”, a dalej, „żeby tylko nowej nie było”. Bielik korzysta z największego polskiego zestawu danych tekstowych Spichlerz (1,5 TB) oraz superkomputera Helios z krakowskiej Akademii Górniczo-Hutniczej. Maszyna ta jest też wyposażona w 256 koprocesorów Nvidia, które umożliwiają równoległe przetwarzanie danych tekstowych.
Przy odrobinie starań Bielika można odszukać i z nim porozmawiać. Zapytałem go: „co tam, panie, w polityce?”, i w odpowiedzi napisał całe wypracowanie. Niestety, jeszcze nie wie, że trzeba powiedzieć: „Chińczyki trzymają się mocno”, ale Bielik dopiero uczy się latać w przestrzeni polskości.
PS Podczas przygotowywania tego tekstu wielokrotnie korzystałem z pomocy ChatGPT, jest to bardzo ciekawe doświadczenie, polecam je każdemu czytelnikowi. Na wszelkie opinie formułowane przez tego rodzaju rozmówców należy jednak patrzeć krytycznie i z dużym dystansem.