U susret AI tranziciji na obzoru, javljaju se mnoga pitanja, strahovi i predviđanja o tome kako će se ova nadolazeća inovacija odraziti na naše društvo. Razmišljanja se kreću između raznih krajnosti, pri čemu su najpopularnija ona o kraju čovječanstva, masovnim otkazima i distopijskim budućnostima.
Iako neki strahovi iz domene navedenih krajnosti nisu sasvim neosnovani, potrebno je kritički pristupiti svim tim pitanjima oko umjetne inteligencije, kako ne bi zbog manjka razumijevanja zaronili u strahove koji nam mogu zamagliti vid prema pozitivnim potencijalima ove tehnologije. Mnogi ovu godinu uspoređuju s presudnom, a objavljivanje ChatGPT-a s otvaranjem Pandorine kutije. No sjetimo se da u trenu kada je Pandora pustila svo zlo ovog svijeta među ljude, u svom užasu je panično zatvorila kutiju i time zarobila ono što je bilo na dnu – nadu.
Matematika ili Magija?
U pozadini svake tehnologije koju je čovjek ikada proizveo stoji matematika. U nekom trenutku je netko sjeo za stol i na komadu papira raspisao osnovne matematičke jednadžbe koje su jasno i deterministički opisivale neki njegov zamišljeni proces.
Takav znanstveno-kreativan proces obično rezultira znanstvenim radom koji objašnjava zamišljene koncepte na način koji cijela znanstvena zajednica razumije, nevezano za kulturnu pozadinu ili jezik koji govore. S vremenom i kontinuiranom provjerom, takav novi znanstveni koncept propagira se u inženjersku zajednicu koja zatim nađe načina kako to novo znanstveno otkriće pretvoriti u neku novu tehnologiju, novi proizvod, ili inovaciju. Taj proces može trajati godinama, desetljećima ili stoljećima… Najatraktivniju inačicu umjetne inteligencije danas pokreće tzv. neuronska mreža, koncept koji je kroz 80 godina prošao upravo kroz gore opisani proces, i prirodnim gibanjem kroz znanstveno-inženjersku zajednicu postao ono što danas znamo kao ChatGPT. Možda će vas iznenaditi da je koncept virtualne neuronske mreže nastao još davne 1943. godine, kada su neurofiziolog Warren McCulloch i matematičar Walter Pitts napisali znanstveni rad s idejom kako bi digitalni neuroni mogli simulirati rad ljudskih neurona. Trebalo je više od 15 godina i nekoliko pokušaja i promašaja da se teorija potvrdi eksperimentom, kada su Bernard Widrow i Marcian Hoff sa Stanforda razvili modele pod nazivom “ADALINE” i “MADALINE”.
MADALINE je bila prva praktična neuronska mreža, primijenjena kao adaptivni filtar koji eliminira jeku na telefonskim linijama. S tom potvrdom, ideja o računalima koja simuliraju ljudske neurone složene u neuronske mreže je dobila svoj današnji oblik.
Sve ostalo je bila stvar komputacije i komputacijske moći, te iako su u drugoj polovici 20. stoljeća nastala mnoga fenomenalna nova otkrića u području umjetne inteligencije, do početka 21. stoljeća glavni nepremostivi bedem je bio manjak dovoljno velike i jake hardverske arhitekture koja bi mogla podržati zamišljene neuronske mreže. Radi ilustracije, ChatGPT-4, posljednji model koji su OpenAI objavili, prema posljednjim izvorima ima 100,000,000 milijardi parametara. To je 10 na 14, 10 sa 14 nula! Da bi takav model operirao kapacitetom kojim trenutno operira, potrebne su specijalizirane “grafičke” kartice, nekoliko desetaka njih, pojedinačne cijene od oko 15.000 dolara, te takav sustav prema nekim procjenama može koštati do nekoliko milijuna dolara dnevno, u održavanju. Informacije su podosta opskurne, pošto ih OpenAI iz razumljivih kompetitivnih razloga ne želi u potpunosti ni opovrgnuti niti potvrditi.
Kako ChatGPT zapravo radi?
Razumljivo je reći da je područje umjetne inteligencije izraslo u kompleksnu granu znanosti i industrije. Za minimalno simbolično objašnjenje koncepata koji pokreću jedan chat bot poput chatGPT-a potrebno je proći kroz kratki index pojmova, koji je generirao ChatGPT:
• Linearna algebra (eng. Linear Algebra) – Grana matematike koja se bavi vektorima, vektorskim prostorima i linearnim preslikavanjima između takvih prostora. U kontekstu ChatGPT-a, linearna algebra se koristi za obavljanje brojnih operacija kao što su množenje matrica, koje su ključne u procesima treniranja i inferencije neuronskih mreža.
• Vektor – U kontekstu matematike, vektor je objekt koji ima veličinu i smjer. Kada govorimo o neuronskim mrežama i ChatGPT-u, vektori se koriste za pretvaranje riječi ili izraza u oblik koji mreža može razumjeti i obraditi. Možete zamisliti vektor kao neku vrstu kodnog sustava ili jezika koji računalo koristi za interpretaciju svijeta. Na primjer, svaka riječ koju ChatGPT vidi, pretvara se u vektor – jedinstveni brojčani “otisak” koji mreža može razumjeti. Tako ChatGPT obrađuje i razumije riječi i fraze koje mu se daju.
• Embedding – U kontekstu neuronskih mreža, embedding je preslikavanje instanci iz ulaznog prostora u vektorski prostor. U ChatGPT-u, svaka riječ se preslikava u visokodimenzionalni vektorski prostor (embedding prostor), koji olakšava manipulaciju i obradu podataka nuronskim mrežama.
• Token – Tokeni su osnovne jedinice obrade u modelima poput ChatGPT-a. Kada ChatGPT čita tekst, prvo ga razbija na manje jedinice koje nazivamo tokenima. Token može biti jedno slovo, jedna riječ ili znak interpunkcije. Na primjer, rečenica: “ChatGPT je zanimljiv”, bi se razbila na sljedeće tokene: [“ChatGPT”, “ “, “je”, “ “, “zanimljiv”, “.”]. Nakon toga, ChatGPT koristi vektore da predstavi ove tokene u obliku brojeva, omogućujućii matematičku obradu i generiranje odgovora.
• Trening Modela – Ovaj pojam odnosi se na postupak “učenja” modela, poput ChatGPT-a, na temelju velikog skupa podataka. Tijekom treninga, model prilagođava svoje parametre kako bi minimizirao razliku između svojih predviđanja i stvarnih vrijednosti.
• Inference (Inference) – Nakon što je model treniran, inferencija se koristi za donošenje “predikcija” ili “zaključaka” na temelju novih, prethodno neviđenih ulaznih podataka. U kontekstu ChatGPT-a, inferencija se odnosi na proces generiranja odgovora na osnovu ulazne poruke.
• Parametar neuronske mreže (Neural Network Parameter) – Parametri su varijable koje model kao što je ChatGPT uči tijekom treninga. Ovi parametri (kao što su težine i biasi) prilagođavaju se kako bi model bolje prilagodio podatke.
• Neuronska mreža (Neural Network) – Neuronska mreža je računalni model dizajniran da simulira način na koji ljudski mozak analizira i obraduje informacije. Sastoji se od međusobno povezanih čvorova (“neurona”) koji prenose informacije jedni drugima. ChatGPT je primjer duboke neuronske mreže.
• GPT (Generative Pre-training Transformer) – GPT je arhitektura modela koju je razvila tvrtka OpenAI. Ova arhitektura koristi metodu prethodnog treniranja za generiranje teksta, a zatim se fino podešava za specifične zadatke. ChatGPT je posebno prilagođena inačica GPT-a koja se koristi za generiranje prirodnog, ljudskog jezika.
• LLM (Language Learning Model) – Ovaj pojam često se koristi za opisivanje modela poput ChatGPT-a koji uče iz teksta kako bi generirali prirodni ljudski jezik. Ovi modeli uče prepoznavati obrasce u podacima o jeziku na koje su trenirani, što im omogućuje stvaranje vjerodostojnih tekstualnih odgovora.
Prva stvar koju svaki ChatGPT korisnik vidi je ujedno i najjednostavniji dio sustava. Web sučelje se vrlo malo razlikuje od svih drugih web chat sustava, poput Facebook Messengera ili WhatsAppa.
Zanimljivo je napomenuti da LLM koji se nalazi u srži ChatGPT-a zapravo ne pamti vaše interakcije od upita do upita. U IT se kaže da ne prati stanje oko sebe (eng. Stateless), već je svaki upit upućen modelu tretiran kao novi, nepovezan upit bez saznanja o bilo kojem prethodnom upitu. Pri svakom upitu u model, cijeli kontekst se programski “zalijepi” kao predglavlje vašem upitu.
Taj kontekst je bitan jer omogućava modelu da prati razgovor, no bitno je napomenuti da je, ovisno o modelu, ograničena veličina konteksta. Tako GPT-3.5 ima ograničenje na maksimalno 16.000 tokena po jednom upitu. Kako je već napomenuto, u srži ChatGPT-a je tzv. Large Language Model, te je teško objasniti jasno kako takav model funkcionira bez zalaska u kompleksnu matematiku.
Stoga ću objasniti dva ključna principa koja su najčešće tražena da se objasne. Sam model nema svijest, niti emocije, niti zapravo klasičan mehanizam razmišljanja. Također “promatra svijet” jednu po jednu riječ. To znači da će LLM izračunati rečenicu koju želi napisati riječ po riječ, ne znajući kako će sam kraj rečenice zapravo izgledati. To je znatno drukčiji proces od onoga koji ljudi koriste da konstruiraju u većini slučajeva svoje rečenice, odatle ona “Speci pa reci”.
LLM je zapravo ogromni statistički aparat za igre na sreću. Poput kasino pokera, on za svaku riječ računa vjerojatnost riječi koju vi želite dobiti kao odgovor. Moglo bi se reći, dok je aparat na sreću u kasinu namješten da su izgledi maksimalno protiv vas, odnosno jako je teško dobiti ishod karata i brojeva koji želite, AI modeli, konkretno ovaj LLM, su gotovo identični strojevi s razlikom da su u ovom slučaju svi ishodi namješteni u vašu korist.
Drugim riječima, kada ubacite neki set znakova u LLM, ono će uvijek vratiti očekivanu kombinaciju natrag, odnosno točan set riječi koji bi očekivali. Pri treniranju modela poput GPT LLM modela, informacije koje su korištene za treniranje modela se ne zadržavaju u samom modelu. Kako sam već spomenuo, vaša povijest razgovora i osobni autentifikacijski podaci jesu zadržani u sustavu, no ne u samom modelu, već na identičan način kao i na Facebooku ili bilo kojoj drugoj aplikaciji. Stoga, pri interakciji s modelom, tvrtka koja ga koristi može zadržavati podatke koje unesete, te je to na odgovornost tvrtke kako se s tim podacima postupa.
No, sami podaci koji služe da bi se model naučio kako prepoznati pojedinu riječ ne ostaju pohranjeni nigdje unutar nekog područja neuronske mreže. Analogija koju možemo iskoristiti za dodatno objašnjenje je klasično ljudsko učenje, recimo tablice množenja.
Naime, iako danas većina ljudi s osnovnom školom zna koliko je 7 puta 8, nitko se ne može točno sjetiti niti jednog zadatka koji je riješio dok je učio, niti informacija o knjizi iz koje je učio, niti vjerojatno ništa oko detalja koji su se ticali samog procesa učenja. No znanje je ostalo i pohranjeno je u našoj memoriji, u našoj prirodnoj neuronskoj mreži mozga. Na identičan način se znanje skladišti u virtualnoj mreži, zadaci se riješe, a ono što ostane jest iskustvo rješavanja zadataka i znanje koje proizlazi iz iskustva. Naravno, postavlja se pitanje kako se to točno radi, a odgovor je ujedno i odgovor na naslov prethodnog poglavlja, matematikom.
Promjena i opasnosti koje donosi
Da odmah adresiramo slona u prostoriji, najdramatičnije predviđanja o utjecajima umjetne inteligencije su ona koja su najviše bazirana na znanstvenoj fantastici i najmanje na znanosti.
Time ne želim umanjiti opasnosti koje AI donosi, već istaknuti da je najveća šteta koju takve senzacionalističke teorije nanose to što skreću pozornost s pravih opasnosti.
Ona najočitija je u neposrednoj budućnosti, Kina ili SAD, ili neka druga velesila, će ubrzo imati AI oružja u svom arsenalu. To jest, ako već nemaju. I tu ne mislim na kinetička oružja, već automatizirani software koji će ubrzati razne vektore kibernetskih napada za nekoliko redova veličine. U hakerskim krugovima je odavno dokazano da je kibernetsko ratovanje nekoliko puta destruktivnije od nuklearnog ratovanja.
Ukoliko imate sumnje, podrobnije se upoznajte sa STUXNET-om, “prvim cyber oružjem u povijesti”, kako ga se kolokvijalno povremeno naziva. Oružje je poslužilo da, konkretno, sabotira iranski nuklearni program hakerskim napadom 2007. godine. Do danas nitko nije preuzeo odgovornost za napad (iako se sumnja na određene zapadne sile), te je prvi dokaz sustavnog korištenja cyber alata u direktno vojne svrhe, s velikom učinkovitošću. Automatizirani Phishing sustavi na Deep webu su dostupni barem dvije godine.
Da bi lansirao uspješan phishing napad na populaciju bilo koje demografije bilo gdje na svijetu, jedino što mi treba je crypto wallet preko kojeg plaćam pretplatu, i u samo nekoliko minuta mogu izvršiti hakerski napad na nekoliko milijuna ljudi. Sustav može automatizirati kompletnu komunikaciju sa svakom metom napada (u ovom slučaju bilo tko od nas) i obraditi milione mailova i meta dnevno. Bez ikakve ljudske intervencije.
Reljef koji želim prikazati oslikava maligno korištenje AI tehnologije kao jednu od najvećih opasnosti koje nas čeka. Evo vam jedna uznemirujuća ideja, spojite tehnologije poput Stable diffusion, ili Midourney s… dječjom pornografijom. Ostanimo na tome.
Dok superinteligencija zvuči cool i prodaje klikove, realnost je da smo još pokoje desetljeće od toga, barem u mojoj skromnoj procjeni. Iako je moderni AI impresivan, svatko tko ga je detaljno koristio u radu brzo je uvidio da postoji puno prostora za poboljšanja. Motivacija mi nije umanjiti globalne utjecaje na tržište ili predviđanja drugih stručnjaka.
No, ako me povijest nešto naučila, onda je to da, ako postoji globalni strah od kojeg svi strahuju, ta tema obično dobije dovoljno javne pozornosti da se ne ostvari. Izostanak nuklearnog rata koji se još nije dogodio može poslužiti kao primjer. No, uska pozornost motivirana strahom nas često oslijepi na opasnosti koje se skrivaju na obzoru i ne primjećujemo ih dok nije prekasno. Otud i moja inicijalna referenca na priču o Pandori.
Da, treba biti svjestan opasnosti koje će AI tranzicija donijeti, no ne pod cijenu slijepe panike koja dolazi kao posljedica senzacionalizma. U tom slučaju bi mogli propustiti upravo ono što bi nam pomoglo da prebrodimo te naše strahove.
*O AUTORU
Šimun Strukan je poduzetnik, programer, inžinjer, glazbenik i zaljubjenik u borilačke vještine rodom iz Zagreba. Osnivač je tvrtke Astro Synapse, laboratorija za istraživanje umjetne inteligencije i integracija
Važna obavijest:
Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na web portalu Poslovni.hr dopušteno je samo registriranim korisnicima. Svaki korisnik koji želi komentirati članke obvezan je prethodno se upoznati s Pravilima komentiranja na web portalu Poslovni.hr te sa zabranama propisanim stavkom 2. članka 94. Zakona.Uključite se u raspravu