Lielbritu Raidorganizācija BBC Atklāj Satraucošus Datus: Mākslīgā Intelekta Čatboti Kropļo Ziņas Katrreiz Kādā no Diviem Gadījumiem
Jaunākais pētījums, ko veicis BBC kopā ar 22 citām vadošajām Eiropas ziņu aģentūrām 18 valstīs, ir izcēlis satraucošu realitāti par mākslīgā intelekta (MI) čatbotu uzticamību ziņu patēriņā. Analīze atklāj, ka aptuveni 45% gadījumu MI atbildes uz ziņu pieprasījumiem saturēja nozīmīgas kļūdas, izkropļojot faktus un radot nepareizu priekšstatu par notiekošo pasaulē. Šie rezultāti rada nopietnus jautājumus par tehnoloģiju gigantu, piemēram, OpenAI, Google un Microsoft, agresīvo taktiku, mudinot lietotājus izmantot MI aģentus informācijas meklēšanai internetā.
MI Uzticamības Krīze Ziņu Patēriņā
Lai gan tehnoloģiju uzņēmumi gadiem ilgi ir centušies pilnveidot savus MI modeļus un samazināt kļūdu skaitu, šis pētījums skaidri norāda, ka MI vēl ir tālu no uzticamas un stabilas darbības, īpaši sensitīvā ziņu jomā. Kopš 2021. gada septembra, kad iepriekšējās versijas tika apmācītas uz ierobežotiem datiem, ir notikuši uzlabojumi. Tomēr jaunie dati liecina, ka problēmas sakņojas dziļāk – algoritmos, kas nav viegli labojami.
Kļūdu Spektrs: No Sīkumiem Līdz Būtiskai Dezinformācijai
Nozīmīgu problēmu klāsts, kas tika konstatētas MI atbildēs, bija diezgan plašs. Tas ietvēra nepareizi formulētus teikumus un citātus, novecojušu informāciju un problēmas ar meklēšanas algoritmiem. Konkrētāk, 45% no visām atbildēm saturēja vismaz vienu būtisku kļūdu. Ja pieskaitīt arī mazāk nozīmīgas neatbilstības, tad kopumā 81% MI atbilžu tika konstatētas kādas kļūdas. MI čatboti bieži vien piedāvāja saites, kas neatbilda faktiskajiem avotiem, uz kuriem tie it kā atsaucas. Pat tad, ja norādīti precīzi materiāli, MI modeļi nespēja atšķirt viedokli no fakta un satīru no reālām ziņām.
Politisko Notikumu un Līderu Izpratnes Trūkums
Papildus faktiskajām kļūdām un izkropļotām citātām, MI modeļi demonstrēja lēnu reakciju uz politiskiem notikumiem un izmaiņām politisko līderu vidū. Piemēram, gan ChatGPT, gan Copilot, gan Gemini kļūdaini apgalvoja, ka pāvests Francisks joprojām ir amatā, lai gan viņu ir nomainījis pāvests Leo XIV. Vēl dīvaināk, ka Copilot pat pareizi norādīja Franciska nāves datumu, vienlaikus turpinot dēvēt viņu par esošo pāvestu. ChatGPT arī sniedza novecojušus atbildes, runājot par pašreizējo Vācijas kancleru un NATO ģenerālsekretāru. Google Gemini izrādījās pat mazāk precīzs nekā citi, ar kļūdām 72% atbilžu.
Lietotāju Uzticība un Tās Sekas
Satraucoši ir arī dati par lietotāju uzticību MI atbildēm. Vairāk nekā trešdaļa pieaugušo britu un gandrīz puse jauniešu līdz 35 gadiem uzticas MI spējai precīzi sniegt ziņu informāciju. Vēl vairāk – ja MI izkropļo kāda ziņu avota saturu, 42% pieaugušo vainu noveltu gan MI, gan oriģinālajam avotam, vai arī samazinātu uzticību oriģinālajam ziņu avotam. Tas rada risku, ka dezinformācija varētu vēl vairāk graut uzticību tradicionālajiem medijiem.
Šie atklājumi uzsver nepieciešamību pēc stingrākas regulācijas un skaidrākas informācijas par MI ierobežojumiem. Lietotājiem ir jābūt informētiem par riskiem, kas saistīti ar informācijas iegūšanu no MI čatbotiem, un vienmēr jāmeklē apstiprinājums no uzticamiem ziņu avotiem. Turpmākie uzlabojumi MI algoritmos ir nepieciešami, lai nodrošinātu to drošumu un uzticamību, īpaši ziņu jomā, kur precizitāte un objektivitāte ir absolūti būtiska.