Mākslīgais intelekts (MI) spēj radīt pārliecinošus tekstus, ģenerēt programmas kodu, veidot attēlus un pat imitēt cilvēka balsi. Strauji augošo spēju dēļ arvien biežāk tiek uzdots jautājums, cik lielā mērā šī tehnoloģija var tikt izmantota ne tikai labiem, bet arī ļaunprātīgiem mērķiem. Kā Latvijas Radio raidījumā “Krustpunktā” norāda Latvijas Universitātes Matemātikas un informātikas institūta pētnieks Normunds Grūzītis, MI spēj arī palīdzēt uzlabot drošību un parādīt, kur sistēmās varētu slēpties vājās vietas, ja vien tam tiek iedots pietiekami skaidrs uzdevums un kvalitatīvi dati.

Vai esam iegājuši jaunā civilizācijas posmā?

Aidis Tomsons: Daudzi mākslīgā intelekta ienākšanu mūsu sadzīvē dēvē par jaunu civilizācijas posmu, kas līdzšinējo dzīvi mainīs uz neatgriešanos. Jūs piekristu tik eksaltētam vērtējumam?

Normunds Grūzītis: No vienas puses, laikam tā sajūta šobrīd tā par 90% ir, ka mākslīgais intelekts iestājās pirms trīs gadiem. Pirms tam varbūt bija kaut kādi dīvainīši, kas kaut kur strādāja dažās laboratorijās. 

Vismaz mēs nerunājām par to neko daudz.

Jā, un agrāk, ja man būtu jārunā par mākslīgo intelektu, viss sāktos ar skaidrojumu, kas tas ir. Šobrīd vismaz nav jāvelk garš pirmšķietamais ievads, kas tad tas mākslīgais intelekts tāds ir. Katram ir kaut kāds viedoklis, priekšstats, nav tā, ka reakcija uz šo vārdu savirknējumu ir – kas? Kā lūdzu? Bet nav jau tā, ka pirms trīs gadiem pēkšņi iestājās mākslīgā intelekta ēra. Tas viss jau gadu desmitiem notika dažādos virzienos. Tikai tobrīd tas intelekts bija tāds specializēts, specifisks, konkrētām problēmām, konkrētiem lietojumiem, konkrētām valodām. Te pēkšņi pirms trīs gadiem tas sāka strādāt tā vienkārši.

Bet tas pats dators vien ir, tā pati programmatūras attīstība jeb programmas, vai ne? Vai tas ir kaut kas cits tomēr?

Tas ir kaut kas pilnīgi cits, jo mākslīgais intelekts nav programma. Tur nav likumi un instrukcijas, kurām šis te, lai kā arī katrs mēs to neiztēlotos, sekotu. Tā sajūta ir tāda, ka samācījies nezin kādus likumus, salasījies un tagad līmē pa gabaliņiem kopā kaut ko.

Nē? Kas tad tas ir?

Tā ļoti prasti sakot, tā ir tāda miljardiem un miljardiem skaitļu čupa, kas, protams, ir sakārtota ļoti gudrā neironu tīklā un tā tālāk. Neiesim detaļās, bet principā tas vienkārši ir lērums ar skaitļiem.

Jebkura informācija kaut kādā mērā datorā ir lērums ar skaitļiem, nē?

Jā un nē, bet šeit tomēr ir citādāk. Šobrīd droši vien visi ar mākslīgo intelektu iztēlojas to, ka ir lodziņš, lodziņam ir maza kastīte apakšā, kurā rakstām jautājumu, un tad tas gudrais orākuls uz jebkuru jautājumu izkasīs un salīmēs kopā atbildi. Bet patiesībā katrs mūsu jautājums vārdu pa vārdam, pat vēl mazākās daļiņās, tiek analizēts un apstrādāts, iziets cauri visiem tiem miljardiem svaru, visai tai milzīgajai gūzmai, līdz tīkla pašā pēdējā slānītī tiek izvēlēts nākamais ticamākais vārds – vai pat tikai vārda daļiņa – un tas turpinās cikliski, līdz tiek sasniegts kāds vēlamais beigu simboliņš.

Tā sajūta cilvēkiem ir, ka sākumā ar datoru varēja tikai ļoti vienkāršas lietas izdarīt – to izmantoja tikai kā kalkulatoru, bet lēnā garā arvien sarežģītākus un sarežģītākus uzdevumus. Tā nav evolūcija? Arvien sarežģītākus uzdevumus saliek kopā, kamēr nonāk līdz šim? 

Nu, kalkulators, protams, ir attīstījies ļoti sarežģītās, komplicētās grāmatvedības programmās, bet atkal – tie visi ir precīzi likumi, precīzas instrukcijas. Ja tur ir kaut viena kļūda, tā kļūda ir jāizlabo, citādi programma principā nav lietojama un derīga. Kamēr nav visi testi izieti, programma nav lietojama. Mākslīgā intelekta gadījumā pēc definīcijas tiek risinātas problēmas, kuras vienkārši nevar noprogrammēt un kuras mēs nevaram vienkārši aprakstīt un sadefinēt likumus. Tas nozīmē, ka pēc definīcijas mākslīgais intelekts kā tāds strādā neprecīzi. Jautājums ir, cik tā precizitāte ir augsta un vai tā mums der konkrētajā gadījumā konkrētajai vajadzībai.

Sākumā vienmēr ir ažiotāža

Bet tad esam vai neesam jaunas ēras sākumā? Vai varbūt jau viducī?

Es domāju, ka tās ekspektācijas vēl pirms gada, diviem vai trijiem bija tiešām milzīgas – ka mēs esam nonākuši vai nu pie bezdibeņa malas, vai pie milzīga tramplīna, no kura varam palēkties uz augšu vai krist dziļumā. Bet ir pagājuši gadi, un jautājums – vai tas tiešām visiem dzīvi ir tik ļoti apgriezis kājām gaisā?

Viss vēl priekšā.

Nu, tā jau ir vienmēr. Vienmēr viss ir priekšā. Līdz ar to ir runa par ekspektācijām un kaut kādu praktisko sauso atlikumu. Turklāt, kā jau ar visām tehnoloģiskajām revolūcijām un jaunām tehnoloģiskām inovācijām, vienalga – lielām vai mazām, ir milzīgs ažiotāžas uzrāviens.

Nu, tūlīt viss būs – visi sāk to solījumu tirgot. Bet tad pamazām tehnoloģija nobriest, un mēs saprotam, kas patiešām strādā un kas – nestrādā. No vienas puses politiķi bieži vien uzsver Eiropas vidējo uzņēmumu īpatsvaru, kuri izmanto mākslīgo intelektu. Latvijā mēs it kā atpaliekam no tā un tāpēc mums vajadzētu piedzīt kaut kādu Eiropas vidējo līmeni, piemēram, 30-50%. Bet vai tas vispār ir mērķis? Ko tas mums dod? Vai tas mums tiešām palīdz kaut ko risināt un uzlabot darba procesu un kļūt produktīvākiem, lai arī ko tas kurā nozarē nozīmētu un kā mēs to mērītu… No otras puses ir arī citi mārketingi skaitļi, kas saka, ka 95% no mēģinājumiem ieviest mākslīgo intelektu ir beigušies ar neveiksmi. Vai tie mērķi vispār nav bijuši skaidri definēti un mēs nesaprotam, kur un kā to visu izmantot… Jāsāk ir ar to lietojumu, nevis pašmērķi tagad nokļūt kaut kādos rādītājos.

Jā, bet, ja mēs jau esam pie šī lietojuma, tad – kā jūs sakāt – 90% pamēģināja, nesanāca un pameta. Bet tas jau nenozīmē, ka kādā brīdī tas viss tomēr nenotiks un neapgriezīsies citādi, nekā tas bijis līdz šim?

Tajā pašā laikā es domāju, ka viss ir jau savā ziņā apgriezies, jo liela daļa, es pats tajā skaitā, ikdienā izmanto šo te lodziņu ar vienu kastīti apakšā, kur pajautāt lietas. Tā kā tādā ziņā daudz kas mainās.

Vai mākslīgais intelekts aizstās žurnālistus, mūziķus un programmētājus?

Tajā pašā laikā pirmā lieta, par ko visvairāk runā, ir – kā tas ietekmēs, teiksim, profesiju izvēli vai dzīves piepildījuma izvēli. Žurnālistikā man arī šķiet: pamēģināju un kaut ko jau viņš var darīt, protams, bet man liekas, ka es te sēžu un vēl sēdēšu līdz pat pensijai. Proti, žurnālists būs vajadzīgs, un mākslīgais intelekts viņu pilnībā neaizvietos.

Es varbūt esmu tāds salīdzinoši konservatīvs cilvēks, jo man arī ir svarīgi, ka žurnālistam ir vārds, nevis ir tikai saturs kaut kur portālā ielikts vai kāds podkāsts, kas izklausās ļoti skaisti un reālistiski, bet es nezinu, kas tajā runā.

Vārds ir viena lieta, bet vai vispār mākslīgais intelekts spēs jebkad aizstāt radošo procesu? Mēs jau redzam – mūziku sacer, dzeju sacer, tātad jebko var izdarīt mākslīgais intelekts, bet Paulu arī joprojām spēlē un spēlēs, un jauni Pauli droši vien nāks ārā.

Noteikti, jā.

Proti, radošo procesu jau īsti viņš nespēj iznīcināt?

Nu… Kas ir radošs kurā brīdī? 

Piemēram, kad es šeit sēžu, es varu uzdot vienu jautājumu vai citu, un te pat uz vietas izdomāt vēl kaut ko pilnīgi citu, ko jums pajautāt. Tas ir tas radošais process – es neesmu salikts pa plauktiņiem, no kuriem skaitļu rindas vienkārši izvelk nākamo jautājumu.

Nē, tādā ziņā var teikt, ka arī jaunie mākslīgā intelekta risinājumi – šis ģeneratīvais intelekts – principā katrā solī, ģenerējot atbildi vārdu pa vārdam, patiesībā kaut ko pārdomā. Tas nav tā, ka vienkārši izvēlas pašu ticamāko nākamo vārdu, tiek arī “mests kauliņš” un mazliet variēts – labi, šoreiz ņemšu šo vārdu, un tad skatīsimies, kas sanāks tālāk.

Vārdu sakot, mēs ar viņu konkurēsim.

Nu, es gan uz to tā neskatos. Es drīzāk uz to skatos, ka man kā darba devējam nav jādomā, kur nākamo asistentu paņemt – es varbūt pats ar mākslīgo intelektu to varu paveikt. Pats kļūstu konkurētspējīgāks.  

Proti, ir taču kādas profesijas vai darba jomas, kurām vajadzētu atbirt tāpēc, ka ir mākslīgais intelekts?

Teorētiski, bet tādā gadījumā pirmā joma ir datoriķi–programmētāji. Ja mēs skatāmies dažādas statistikas, tad tā nozare, kas visvairāk izmanto mākslīgo intelektu un apgalvo, ka gūst no tā visvairāk labuma, ir programmēšanas industrija. Bet, vai tāpēc programmētāji ir masveidā atlaisti? Nav kaut kā dzirdēts. Varbūt vairs netiek tik daudz pieņemti kaut kādi juniori…

Bet nākotnē?

Nu…

Domājat, ka nē?

Nu, nē.

Proti, jūs sakāt, ka darba tirgu mākslīgais intelekts nemaz tik ļoti neietekmēs, kā sākotnēji šķita?

Nē, varbūt tiešām, kā jau es teicu, nebūs nepieciešamība pēc tik daudz dažāda veida zema līmeņa asistentiem, kas dara mazas, mazas skrūvītes. Katrs speciālists pats kļūst spēcīgāks, produktīvāks un var vienlaikus izdarīt arī visas mazās lietas. Nevis tikai domāt par lielo bildi, bet vienlaikus, atkarībā no līmeņa, kur katrs atrodas, pieķert klāt arī mazākas lietas, jo tas ir daudz vieglāk, nekā nokomunicēt to visu kādam cilvēkam. Līdz ar to…

Vārdu sakot, jā, bet ne tik traki.

Jā, bet nē.

Bet tad es atceros – nu jau ir pagājuši vairāki gadi – vienu no lielākajiem skandāliem, kas savulaik skāra “Facebook” – datu nopludināšanu. Toreiz tika paustas bažas, ka, ja viens uzņēmums sakrāj tik daudz datu, tas var sākt tos izmantot, lai ietekmētu politiskos procesus, cilvēku vēlmi tērēt naudu un dažādus paradumus. Cik lielā mērā mākslīgā intelekta attīstība šajā jomā kļūst par arvien lielāku risku?

Dati vispār ir zelts, vienalga, kā mēs tos saucam, jaunā nafta vai vēl sazin kas, jo visas šīs sistēmas principā balstās uz datu pieejamību vai nepieejamību. Tie, kuriem ir pieejami dati, spēj izveidot daudz labākus mākslīgā intelekta modeļus un risinājumus, nekā tie, kuriem jādzīvo tikai ar kaut kādiem publiski pieejamiem datiem, teiksim, internetu.

Sanāk internets iepretim datiem, kuri nav gluži visiem pieejami, un tāpēc, protams, jā, tādi “Facebook” un “Twitter”, un citas platformas, kurām ir dati… Teiksim tā, ja agrāk pie šiem datiem varēja tikt klāt, tos dažādi vaicāt, savākt, monitorēt un tamlīdzīgi, tagad tas viss ir kļuvis ļoti grūti. To visu var dabūt vai nu par lielām naudām vai nemaz. “Facebook” taisa savus modeļus, un “Google” taisa savus modeļus. Par “OpenAI” arī – neviens nezina, kā tas ir ticis pie tik daudz un labiem datiem, ka viņiem ir izdevies attiecīgi tik labu modeli izveidot. Protams, to visu var izmantot arī tam, lai tālāk ietekmētu. Ne jau tik daudz varbūt caur to čata lodziņu, bet visas rekomendācijas, kas mums tiek piedāvātas. Bet tā jau ir lieta, kas mums bija pazīstama vēl pirms 2022. gada decembra, kad parādījās tie jaunie modeļi.

Senas problēmas jaunā izpildījumā – vai esam gatavi riskantam posmam?

Mēs pilnīgi noteikti redzam, ka sociālajos medijos arvien izteiktāk sāk cirkulēt informācija, kas izrādās viltota. Tas taču arī ir mākslīgā intelekta attīstības rezultāts, vai ne?

Tajā skaitā. Ģenerēt drazu un troksni kaut kādā ziņā ir kļuvis vieglāk, bet tajā pašā laikā arī pirms tam bija botu fermas un viss pārējais, kas to viltus informāciju ģenerēja. Vienkārši šobrīd ir instruments, kā arī šādiem censoņiem kļūt produktīvākiem.

Nevajag vairs sēdēt katram cilvēkam un rakstīt – tagad visu var izdarīt automātiski, vai ne?

Jā, mazliet pamodificēt, pavariēt, lai tas vairs nav gluži nokopēt un ielīmēt tieši to pašu.

Uz ko es velku sarunu… Cik lielā mērā mēs varam prognozēt, ka tuvākajos gados manipulācija ar cilvēkiem kļūs tik izteikta, ka mēs paši vairs nepamanīsim, ka ar mums manipulē?

Vai tā jau nav sena problēma?

Tā ir sena problēma, bet mums jau pašiem šķiet, ka mēs vēl tiekam galā.

Nē, nu skaidrs, ka līdz ko ir rīks, kas spēj ģenerēt informāciju, informācijas gūzma neizbēgami kļūs arvien lielāka un lielāka. Kaut kā mēs pagaidām tajā visā peldam. Nezinu, es personīgi nejūtos, ka slīktu liekā informācijā, bet mēs katrs izvēlamies, kādos burbuļos dzīvot.

Nākotnē jūs tur redzat risku? Es redzu, ka parādās visādi video, kuros cilvēki izplata, ka viens ir teicis šo, otrs – to, lai gan ne viens, ne otrs patiesībā to nav teicis. Pirms vēlēšanām, teiksim, var parādīties kāda intervija ar ministru prezidentu, kur viņš it kā ir sastāstījis tādas lietas, ka visi saka: nē, par šo partiju nedrīkst balsot. Un ministru prezidents nepaspēs pat reaģēt, jo vēlēšanas jau priekšā, bet cilvēki sašutuši izplata viltotus video un priecājas, ka situācija tāda ir izveidojusies. Vai ir tāds risks?

Risks noteikti ir, un varam pārliecināti teikt, ka kāds to mēģinās darīt un ir jau darījuši. Jautājums ir par uzķeršanos vai neuzķeršanos, pievērst uzmanību tam saturam vai nepievērst…

Šobrīd nē, bet es visu to mūsu sarunu gribu vest uz to, vai mēs netuvojamies kādam riskantam posmam, kuram mēs neesam gatavi?

Neesam šobrīd gatavi, bet būsim. Viss notiek tādas savstarpējas konkurences apstākļos. Vieni veido šos ģenerēšanas rīkus, otri šos rīkus izmanto godprātīgi vai negodprātīgi, un trešie mēģina izķert negodprātīgos lietotājus visdažādākajos formātos. Tas tā nav tikai par viltus ziņām, bet tikpat labi par plaģiātiem un visām citām lietām. 

Interneta un sociālo mediju vides piesārņojums

Pagājušajā nedēļā es saņēmu video, uz kura pats uzķēros. Tā bija pirms dienas izveidota intervija, es to klausījos audio formātā un parādīju saviem dēliem, un teicu – re, cik interesanta saruna. Viņi man atbildēja – tas ir mākslīgais intelekts. Bet dienas laikā šis video bija savācis apmēram pusmiljonu skatījumu un īkšķīšu, un komentāru tur bija ap 300 tūkstošiem – cilvēki ar sajūsmu apspriež intervijas saturu, bet viss ir fake.

Bet jūsu dēli pamanīja.

Mani dēli pamanīja, jo viņi ir jaunāka paaudze, viņi teica – redzi, tu, vecīt… Labi, tā mana ķibele bija tāda, ka es neskatījos to video, jo braucu vilcienā un klausījos šo sarunu audio variantā, bet tur bija pusmiljons skatījumu ar milzīgu skaitu komentāru. Visi sajūsminās un izplata to interviju, un neviens, šķiet, nepamana, ka tā ir viltota. Es speciāli palasīju tos komentārus, neredzēju nevienu ziņu par viltojumu.

Cilvēki viegli pieņem laikam visu, ko dod, bet varbūt šajā ziņā mēs esam vēl mazliet pasargāti, jo tas video, es saprotu, droši vien bija angļu valodā?

Angļu, jā.

Jā, angļu valodai runas sintēze ir tādā līmenī attīstīta, ka tur var likt iekšā pat emocijas un visas citas lietas ģenerēt. Saturam latviešu valodā mēs negodprātīgas izmantošanas ziņā, par laimi, ātri varam, ja ne vizuāli kaut ko saskatīt, tad vismaz runas īpatnības saklausīt, kas uzreiz liek pievērst uzmanību. Tāpat kā mēs droši vien, pat neredzot attēlu, pat neredzot, kas tā ir par filmu, dzirdam, ja titrus nelasa īsts cilvēks, bet robots. To taču mēs momentā saklausām un saprotam, ka kaut kas nav, un tad pievēršam uzmanību, kas tur īsti nav. 

Bet tas ir laika jautājums, kurā brīdī mēs arī latviski varēsim tikpat viegli uzķerties?

Ilgāka laika jautājums – jā, noteikti.

Kā sevi pasargāt no tā, ka mēs paši izplatām muļķības un paši sajūsmināmies par muļķībām?

Vispārīgā gadījumā nekā, bet tāpat kā līdz šim – pievērst uzmanību. Teiksim, es klausos Latvijas Radio, neklausos kaut kādus kanālus, kas man liekas apšaubāmi, un viss. Šajā gadījumā es jau noveļu to bumbu jūsu pusē – jūs būsiet papētījuši, paskatījušies, jūs esat eksperti šajā lauciņā. Ja mēs runājam, teiksim tā, par tādām nopietnām ziņām.

Proti, jūs sakāt – kļūs arvien svarīgāk atkal atgriezties pie kaut kādām pamatvērtībām? Skaties tikai to, kam tu uzticies?

Uzticamība ir absolūti svarīgs faktors.

Jo šis ir arī influenceru laiks. Katrs ir medijs, katrs ziņo kaut ko, un mēs komentējam un rakstām. Ar laiku vairs  nevarēs uzticēties jebkuram [saturam], ko tu izlasi vai noskaties “Youtube” un priecājies?

Bet tas tā ir ar vai bez mākslīgā intelekta. Influenceri jau bija pirms mākslīgā intelekta, tikai tagad viņiem varbūt ir rīks, kā būt produktīvākiem un ražot vairāk satura.

Jā, bet mēs joprojām darām un izplatām, un man ir bažas, ka izplatīsim arvien vairāk visādas lietas.

Jā, internets kļūst aizvien piesārņotāks. Šobrīd, kā jau es minēju, dati ir zelts. Pagaidām tas vēl ir zelts, jo mēs vēl varam dabūt ļoti daudz datus, kas ir tapuši dabiskā veidā, kur tiešām to ir rakstījis cilvēks un varbūt pat literārais redaktors ir gājis pāri. Varbūt tas pat ir saturs, kas tapis vēl pirms milzīgā informācijas laikmeta.

Taču tagad arvien vairāk šis ģenerētais saturs tiek laists ēterā, likts visur pa labi un kreisi, un līdz ar to tagad par lielu problēmu kļūst, kur dabūt tos nākotnes datus?

Lai apmācītu jaunas modeļu versijas pēc nākamās, aiznākamās un vēl 10 gadiem tā, lai izvairītos no mākslīgi ģenerētā satura nonākšanas atpakaļ apmācības datos un jaunie modeļi mācās no veco modeļu drazām. Bet izrādās, ka arī šī problēma ir diezgan sena. Mašīntulkošana, kas arī ir ļoti specializēts mākslīgā intelekta risinājums, izrādās ir jau sen piedrazojusi internetu, kas jau šīs dienas lielo valodas modeļu apmācībā rada problēmas atfiltrēt visu to mašīnu tulkoto saturu, kas nav dabīga valoda. Bet tur varbūt vismaz faktuāli varam cerēt, ka tur ir korekta informācija.

Kā apmuļķot mākslīgo intelektu

Ir cilvēki, kas jau tagad stāsta, ka pieķēruši – mākslīgais intelekts melo vai noklusē informāciju. Nav tā, ka kādā brīdī vilsimies un vispār atteiksimies no tā? 

To es arī esmu novērojusi, ka daudzi pamēģina un saprot – nē, man šis neder, jo šis modelis nav uzreiz devis to atbildi, kas ir sagaidīta. Bet ir jāsaprot, ka tas modelis nav dzīvs organisms, kas visu laiku klausās, visu laiku mācās no katra jautājuma, ko visā pasaulē mēs sasūtam un spaidām īkšķīšus uz augšu vai leju. Jā, tas viss noder kaut kādām nākotnes versijām, kas tiek trenētas, bet pašreizējā momentā katrs modelis ir absolūti statisks. Pirms katra nākamā vārda ģenerēšanas tiek aizmirsts pilnīgi viss, un viss sākas it kā no nulles – tikai ar to kontekstu, kas tiek iedots. Tāpēc jautājums ir par to kontekstu.

Proti, ja viņš vienreiz ir samelojies, viņš tikpat labi samelosies arī otrreiz?

Jā, šī konkrētā versija. Ja vien mēs neiedosim un nepateiksim, ka es negribu, lai tu man tagad no matiem te kaut ko dzejo, bet, lūk, ir mana savāktā informācija, es esmu žurnālists, esmu savācis kaut kādu portfolio vai lietas materiālus, un, lūk, runāsim tagad par lietu, pētīsim lietu.

Var palūgt “ChatGPT” vai jebkuram mākslīgajam intelektam, kā uztaisīt bumbu, kā labāk veikt teroraktu, kā noindēt kaimiņu?

Jā, un ir pilns ar piemēriem, kad tas ir izdevies. Varbūt ne pirmajā reizē, bet mēģinot kaut kā apvārdot šo modeli. Tad rodas tā sajūta, ka ir visādas sānu durtiņas un aizmugures durtiņas, kā to visu paveikt, bet atkal – ir jāatceras, ka visa šī te jaunā ēra, jaunais mākslīgais intelekts, tas ir valodas modelis, un valodas modeļa vienīgais uzdevums ir katrā solī paredzēt nākamo ticamāko vārdu no kaut kāda visu iespējamo vārdu saraksta – no vārdnīcas. “ChatGPT” gadījumā tie ir kādi 200 tūkstoši vārdu no visām pasaules valodām – viena kopīga vārdnīca, un pilnīgi visām valodām šis teksts tiek veidots tikai no salīdzinoši nelielas vārdnīciņas. Līdz ar to tur būs visi angļu valodas vārdi lielākoties, pilni vai gandrīz pilnos vārdos ietverti, bet latviešu valodā tur droši vien būs kaut kādas burtu virknītes. Tie vārdi, kas ir internacionālāki, droši vien būs pilnīgāk ietverti šajā vārdnīcā, bet pamatā tur tiešām būs kaut kādas burtu kombinācijas no kā tas viss tiek veidots. Tā visām valodām – viena tāda kopīga vārdnīca. 

Valodas modeļa uzdevums ir ģenerēt nākamo ticamāko vārdu, un pats valodas modelis, samācījies un salasījies ticamākos turpinājumus no interneta arhīviem un visa, kas konkrētajam modelim ir bijis pieejams apmācības procesā.

Tas būs gatavs ģenerēt jebko. Arī, jā, kā izgatavot bumbu, narkotikas sintezēt un visu pārējo. Bet tad ir arī tie nākamie drošības mehānismi, kas tiek iemācīti. Tie netiek kaut kā likumiski ieprogrammēti, bet arī mācīti. Tiek mācīts tālāk nākamajās fāzēs, kas ir labs jautājums, kas ir laba atbilde, uz kādiem jautājumiem mēs kādā veidā atbildām. Vienalga, “Open AI”, “Facebook” vai visi citi dod piemērus un rāda, lūk, uz šādiem jautājumiem, piemēram, saistībā ar narkotikām, mēs atbildam, ka uz šādiem jautājumiem mēs neatbildēsim. Bet tas ir tikai viens konkrēts piemērs un konkrēta atbilde. Tālāk modelis pats nākamajās fāzēs, kad tiek apmācīts, spēj izšķirt – lūk, šis ir tāda veida jautājums, uz kuru man vajag ģenerēt atbildi, ka es uz to neatbildēšu. Bet tas nenozīmē, ka šis modelis nespētu uz to atbildēt.

Jā, vai arī es iemācīšos tā pajautāt, ka viņš man tik un tā atbildēs.

Jā, man, piemēram, pašam nesen nācās ģenerēt sintētiskus datus par narkotisko vielu tirgošanu “Telegram” kanālos, nu, lai varētu tālāk pēc tam skatīties, vai mēs varam pamanīt šādu vielu tirdzniecību ar automātiskiem līdzekļiem dažādos sociālajos tīklos.

Es lūdzu uzģenerēt bildi no kaut kādiem lietiskajiem materiāliem, lai tur kaut kāda zālīte parādās, kokaīns vai ieroči, un, atkarībā no modeļa, kā nu kurš tur ir apmācīts ar drošības jautājumu un atbilžu pārīšiem, cits man izvairījās to ģenerēt. Taču tad es teicu, ka man tas ir vajadzīgs kā mācību materiāls vai ka es esmu policijas izmeklētājs, un tad sekoja – labi. Vienam modelim šis manis dotais konteksts un vārdojums, kā es to tiku ietvēris, bija pietiekami labs, lai kā nākamo vārdu izvēlētos – okey, ejam uz priekšu ar bildes ģenerēšanu, nevis ģenerējam atrunu.

Sanāk, ka mēs šobrīd paļaujamies, ka tie, kas veido mākslīgo intelektu, to dara atbildīgi? Ka tie kaut kam uzliek kaut kādu bloku? Piemēram, ja jūs man lūgsiet informāciju par bērnu izvarošanu, es to nedošu. Kaut kā tā?

Bet atkal – tas nav tāds ciets bloks. Var godprātīgi mēģināt šos modeļus ierobežot, bet tikai ar šī paša modeļa līdzekļiem. Mums jāsaprot, ka šī tehnoloģija, ar ko mēs strādājam, nestrādā 100% precīzi un 100% tā, kā izstrādātāji vai lietotāji to vienmēr vēlēsies. 

Kas nozīmē, ka mākslīgais intelekts kļūst par noziedzīgai pasaulei ļoti noderīgu rīku.

Neapšaubāmi, tāpat kā kriptovalūtas, tāpat kā visas tehnoloģijas, kas pēdējos gados parādās. 

Vai var un vajag kaut ko lietas labā darīt, vai jāpieņem to kā realitāti?

Skaidrs, ka lietas labā noteikti vajag darīt, bet risinājums nav vienkāršs. Teiksim, paņemt tagad un izslēgt to mašīnu – tas nav risinājums.

Tas vairs nav iespējams, man liekas.

Pat ja ar likumdošanu tas tiktu izslēgts vismaz legāli, tas noteikti nebūtu risinājums. Neapšaubāmi šis tagad ir radījis galvas sāpes daudziem, kam ir jācīnās ar sekām, tas ir fakts, bet tā ir problēma jau no senseniem laikiem – kā ar to maizes nazi, kas ir vecs un visiem labi zināms piemērs. Joprojām maizes nazi mēs visi lietojam, tas nekas, ja ar to pašu instrumentu dažreiz tiek nodarīts liels ļaunums.

Vienkārši policijai arī būs jāpielāgojas, ka tagad viss, kas notiek, notiek arī šādā veidā.

Jā, un policija arī bez šaubām pielāgojas.

Vai jauns palīgrīks politiskajos procesos un noziedzībā

Savukārt, ja skatāmies uz politiskajiem procesiem, politiķiem tā ir iespēja, ka viņi var izveidot veiksmīgu kampaņu, būvējot to tikai uz mākslīgā intelekta? Tā varētu nākotnē veidot, es nezinu, partijas uzbūvi, paļaujoties uz to, ka mākslīgais intelekts labāk izdomās, kā to vēlētāju uzrunāt, nekā citi?

Kā tāds PR speciālists mākslīgais intelekts der pilnīgi noteikti, jā, es pilnīgi noteikti redzu to kā vienu no komandas locekļiem stratēģijas un taktikas veidošanā – kā mēs pozicionējam savu partiju un kā mēs ejam pie saviem vēlētājiem, pircējiem vai cita veida mērķauditorijas. Par to, es domāju, nav šaubu, ka tas jau tika, tiek un tiks darīts.

Jūsuprāt, arī kāda no Latvijas partijām to jau dara, vai ne?

To es nezinu, bet es būtu pārsteigts, ja tās godīgi teiktu, ka nedara.

Tas pats par sevi nav nekas slikts, ja?

Ja tas ir kā instruments, kāpēc nē? Jautājums, vai tālāk šīs partijas biedri parakstās zem tā, ka, jā, tas ir tas, ko mēs vēlamies.

Partijas biedri to iespējams nezina – to zina tikai atsevišķi indivīdi tajā partijā. 

Es domāju, ka nevajag novienkāršot, ka ir tikai divas opcijas – cilvēks pats domā un dara, un raksta, vai nospiež podziņu kaut kādam vāji definētam jautājumam.

Vai mākslīgais intelekts var kļūt arī par palīgrīku, piemēram, kā apzagt bankas, palīdzēt uzlauzt sistēmas, internetbankas un visas pārējās lietas? Es visu uz to tumšo pusi šodien velku. 

Atkal – vienkārši tā no matiem, kā tagad uzlauzt konkrētu banku, nebūs atbildes, bet, lūk, ja jums ir izdevies tikt kaut kādā veidā pie kaut kādiem šīs bankas sistēmas parametriem, nedod dievs, pie kaut kādiem programmu kodiem vai vēl kaut kā, tad, lūk, ir jau materiāls. Tā vietā, lai runātu ar šo modeli vienkārši no baltas lapas, es iedodu sev zināmos parametrus, un man pat nav jāsaka, ka tā ir banka vai kas, es tikai jautāju, kādi šeit ir, piemēram, drošības caurumi. Varbūt es īstenībā esmu baltais hakeris, kas vēlas to sistēmu nostiprināt, nodrošināt, tāpēc es jautāju, kādi te ir caurumi un ko mēs te varam darīt.

Te būs sacensība starp bankas aizsargātājiem un pārējiem.

Tieši tā. Arī bankas sistēmu uzturētāji šo visu var izmantot, un mākslīgais intelekts arī tiek izmantots sistēmu uzturēšanā, monitorēšanā, lai varētu pamanīt dažādas anomālijas tīklā un sistēmā, kam cilvēki vienkārši vairs nespēj izsekot, jo to sistēmu un mezglu ir tik daudz. Tā kā – jā, šī pati tehnoloģija tiek jau izmantota abos virzienos.

Pie pogām joprojām ir cilvēks, tāpēc apokalipses nebūs

Pirms apmēram pāris gadiem, varbūt mazliet nesenāk, bija vairāku ievērojamu ļaužu kopējs paziņojums ar aicinājumu piebremzēt darbu pie mākslīgā intelekta, sakot, ka šī sistēma var iziet ārpus cilvēku kontroles. Vai atceraties, ka bija tāds paziņojums?

Atceros, bija publiska vēstule.

Jā, tajā bija runa par pusgadu. Pusgads ir pagājis, nekas taču nav izgājis no kontroles?

No kontroles tas nav izgājis. Varbūt ir tas priekšstats, kas radies no filmām, no tās pašas “Kosmosa odisejas” manā gadījumā, par to, ka mākslīgais intelekts dzīvo savu dzīvi.

Jā, un beigās nostājas pret cilvēku.

Pats sev sāk definēt uzdevumus, pats šos uzdevumus sāk izpildīt un tā tālāk. Tas ko mēs joprojām pēc šiem trim intensīvajiem gadiem redzam, ir, ka pie pogām – pie pults – joprojām ir cilvēks, un cilvēks ir tas, kurš šos uzdevumus dod. Un cik nu viņš ir radošs šos uzdevumus dot, tajā skaitā visu kontekstu padot līdzi, tik labs arī tas rezultāts. Bet tas nav tā, ka mākslīgais intelekts tagad pats sev uzdod uzdevumus un vēl visu sasaista ar reālo fizisko pasauli, kas ir milzīga problēma.

Kamēr modelis sēž vienkārši kā viens fails kaut kur uz servera un spēj izdarīt tikai tik vien, kā uzģenerēt nākamo vārdu, daudz nekas nenotiek.

Protams, tagad, jā, šīs sistēmas tiek arvien vairāk saslēgtas ar citām sistēmām, bet tas joprojām paliek tikai tāds nākamā vārda ģenerētājs, un nekā vairāk tur nav. Tik vien tas arī ir, tā ļoti vienkāršoti sakot. Bet tas nākamais vārds var būt uzģenerēts arī izpildīt kādu komandu, izsaukt kādu ārēju sistēmu, pavaicāt ne tikai “Google” kaut ko, lai pielasītu kontekstu, bet arī, piemēram, bankas datu bāzei vai kaut kādam iedzīvotāju reģistram un tā tālāk. Tad, protams, kļūst svarīgs jautājums par uzticamību – vai tiešām viss tiks pareizi izsaukts un izdarīts, vai netiks nejauši kaut kādi dati nopludināti no tās sistēmas, vai netiks paņemts kaut kas vairāk, nekā to cilvēks būtu reāli uzprogrammējis ar rokām, ja mēs ļaujam šiem mākslīgā intelekta aģentiem brīvi darboties un vākt informāciju, lai tālāk izpildītu galīgo, doto uzdevumu. 

Jūs varētu parakstīties zem šādas vēstules, ja tagad kāds sacītu, ka risks ir pārāk liels, ka mēs zaudēsim kontroli, un ir jādara kaut kas lietas labā – mākslīgais intelekts jāaptur?

Es pats toreiz neparakstījos zem šīs vēstules. Protams, mans vārds visā tajā lielo vārdu gūzmā vienalga neko nenozīmētu, bet nebija jau tā, ka visi lielie vārdi tur bija parakstījušies. Tur zināmi lielie vārdi bija parakstījuši šo vēstuli, un zināmi lielie vārdi nebija. Tā kā tur jau arī ir savas cīņas un savas peripetijas, kas notiek globāli ap šo visu.

Jūs neparakstītos, jo jūs neredzat šādus riskus?

Nu ne tādus fatālus un apokaliptiskus. Protams, nekur nav pazudis uzdevums strādā ētiski, godprātīgi un atbildīgi. Tas nekur nav pazudis. Atkal – mākslīgais intelekts var izdarīt principā visu, ko vien vēlamies. Vai mēs paļaujamies uz to rezultātu, ka tas rezultāts tiešām būs korekts – tas ir cits jautājums. Tas nozīmē, ka kādam vienalga vajag validēt šo rezultātu. 

Tas tā būs vienmēr?

Es domāju, ka vienmēr lielākā vai mazākā mērā gan viens, gan otrs – gan cilvēks, gan mākslīgā intelekta modelis – būs tajā, ko angliski sauc par “in the loop” jeb tajā cilpā, tajā procesā. Vai nu lielāku darbu paveic modelis, un cilvēks attiecīgi vienkārši validē rezultātu, vai varbūt otrādi – mākslīgais intelekts ir tikai kā asistents un palīgs, bet pie stūres sēž cilvēks. Nu, ja mēs runājam par tādām lielām problēmām, kas nav tādas triviālas lietas.

Proti pilnībā paļauties uz viņu nevarēs nekad?

Bet tas tā ir pēc definīcijas. Pēc definīcijas mākslīgā intelekta būtība ir risināt algoritmiski neatrisināmus uzdevumus, un mēs varam tikai tiekties uz pareizu rezultātu. Nu tā, ka vispārīgi pareizu rezultātu. Nevis kādā konkrētā piemērā pareizu, bet kopumā pareizu rezultātu. Bet tā pareizība – tas ir kaut kāds procents, tie nebūs absolūti 100%, kā, piemēram, grāmatvedības sistēmas gadījumā tam vajadzētu būt. 

Tātad jūs sakāt, ka mēs mazlietiņ sākam atkāpties no tās sajūtas, ka tūlīt viss būs, un sākam piezemētāk lūkoties uz mākslīgā intelekta iespējām?

Es domāju, ka šobrīd diezgan daudz to jau ir aptaustījuši. Vienalga, individuālā, uzņēmumu vai valsts struktūru līmenī ir aptaustīts, ko mēs varam izdarīt un kur tās ekspektācijas bija pārmērīgas, un tomēr ir jāpakāpj atpakaļ – okey, darām, bet skatāmies, ko mēs reālistiski varam izdarīt, kas ir tās pirmās problēmas, kuras mēs varam atrisināt, nevis tā vienkārši abstrakti tagad nometīsim tur to mākslīgo intelektu visā kopējā sistēmā, un pēkšņi viss tā maģiski sāks darboties un strādāt. Nē, tā tas, protams, nestrādā, tāpēc tagad tiek meklētas tās skrūvītes vai nagliņas, kuras tad konkrēti mēs varam daudz veiksmīgāk ar šo tehnoloģiju iedzīt, jo ir vesela čupa ar lietām, ar kurām tas ne obligāti tehnoloģijas dēļ nestrādā, bet varbūt vienkārši pats tas process nav gatavs šīs tehnoloģijas ieviešanai. Arī ar tādām lietām nākas saskarties.