Společnosti vyvíjející nástroje umělé inteligence, které mají lidem pomáhat při práci a sloužit i k zábavě, hlásají, že jejich výtvory jsou i přes možné nedostatky velmi kvalitní a zakládají si na učení z velkého objemu dat, což z nich činí „spolehlivé“ zdroje informací.

Ovšem každý, kdo AI využívá k jen trochu náročnějším úkolům, někdy narazil na momenty, kdy byla AI ve svých doporučeních či radách „naprosto vedle“. Navíc často ztrácela kontext konverzace, nepamatovala si, co jste řekli dříve, takže jste museli věci opakovat atd.

Startup Memvid byl vytvořen proto, aby podobné problémy vyřešil tím, že AI agentům a jazykovým modelům poskytne takovou paměť, která jim pomůže pamatovat si uživatele, konverzace i znalosti.

Toho chce dosáhnout tím, že najme člověka, který bude osm hodin v kuse zátěžově testovat paměť chatbotů.

„Strávíte osm hodin denně interakcí s předními chatboty s umělou inteligencí – vaším jediným úkolem bude brutální upřímnost ohledně toho, jak frustrující jsou. Požádejte je, aby si pamatovali určité věci, a pak sledujte, jak je zapomínají. Ptejte se znovu, dokumentujte jejich snažení a chaos,“ uvádí se na stránkách startupu v popisu jediné pracovní pozice, která výslovně láká na to, že za peníze bude moci dotyčný šikanovat AI.

Sazba je 100 dolarů na hodinu (cca 2100 korun), celkem za osmihodinovou pracovní dobu 800 dolarů (necelých 17 tisíc korun).

Sebevědomá chybovost umělé inteligence může v reálném světě napáchat velké škody.

„Lidé musí chatbotům neustále všechno opakovat. Chtěli jsme z této každodenní frustrace vytěžit něco, co pomůže tento stav změnit,“ uvedl pro Guardian spoluzakladatel a generální ředitel společnosti Memvid Mohamed Omar.

Jak dodal, od kandidátů se očekává, že zvládnou po celou dobu udržet konverzaci „v chodu“, budou se vracet k předchozím diskutovaným tématům a jemně donutí AI, aby sama přiznala, kdy ztratila nad věcmi přehled – to vše bude nahráváno pro následnou analýzu. Ačkoli se zatím hlásí spíše lidé, kteří mají větší znalosti a zkušenosti s umělou inteligencí a jejími chybami, podmínkou pro možné přijetí to není.

Omar podle svých slov nemá určen konečný termín pro podávání přihlášek, očekává ale, že by mohl vybrat vhodného kandidáta v průběhu týdne či dvou.

Anketa

Předložila vám někdy AI informace, které byly nepravdivé, zkreslené nebo nepodložené?

Snažím se obejít bez rad a pomoci AI.

Celkem
hlasovalo
220
čtenářů.

Jak dodal pro Business Insider, podle společnosti je toto nejlepší způsob, jak poukázat na přetrvávající problém mnoha chatbotů. Už v roce 2024, kdy společnost začínala, byla paměť chatbotů velmi nespolehlivá.

V následujících letech se i přes vývoj podle nich problém ještě prohloubil. Recenzovaný článek, uvedený v minulém roce na Mezinárodní konferenci o reprezentaci učení, ukázal, že i přední komerční systémy umělé inteligence zaznamenaly pokles přesnosti od 30 do 60 %, když byly žádány o zapamatování faktů v průběhu dalších konverzací.

Problémy v reálném světě

S určitými chybami u každé nově zavedené aplikace nebo služby se tak nějak počítá, ovšem jak uvádějí nejen zakladatelé startupu, „sebevědomá“ chybovost umělé inteligence může v reálném světě napáchat velké škody vzhledem k tomu, v jak velkém rozsahu a s jakou rychlostí se AI zavádí do všech oblastí lidského života.

Problémy jsou viditelné napříč všemi obory. Deník Guardian si nechal udělat test v simulovaném podnikovém prostředí, kde AI agenti dostali neškodné obecné úkoly, při kterých, jak se zjistilo, obcházeli bezpečnostní kontroly, manipulovali s citlivými daty nebo prováděli potenciálně nebezpečné kroky, to vše bez přímého nařízení člověkem.

Viditelné potíže způsobuje AI například i v právním světě. Francouzský vědec Damien Charlotin vysledoval, že před jarem 2025 byly zaznamenány potíže v návaznosti na využívání AI v právním odvětví asi u dvou případů týdně, na podzim téhož roku to byly už dva až tři denně.

Samostatnou kapitolou jsou pak případy dětí i dospělých, které chatboti v konverzacích nabádali nebo podporovali v nebezpečném chování či myšlenkách na sebevraždu.