Jo, det har väl varit rätt så kännt ett tag nu. AI-bubblans kollaps får gärna skynda på och komma snabbare.
Visste ni att himlen är blå också?
jag visste att den aktivt ljuger men hälften av svaren är hemskt på tal om hur många som använder den
Vasa? Är inte MechaHitler en pålitlig opartisk källa?
Trots detta publiceras AI-genererad information utan att dess fakta verifieras, information som nya artificiella intelligenser sedan tränar på. [Model collapse](https://en.wikipedia.org/wiki/Model_collapse)
Inte förvånad över att det blir fel. Tror att tex OpenAI för ett tag sedan konatsterade att det delvis beror på ett integralt fel i hur deras AI tränas. Som jag förstår det har man uppmuntrat den till att låta självsäker och aldrig stå svarslös, på bekostnad av precision.
Det märks ibland väldigt bra att det är rena påhitt när man tex kollar på sökresultat från Gemini om nåt det inte finns mycket information om för den att jobba med. Svaren är självsäkra, men informationen går delvis stick i stäv med verkligheten.
Bekymret är också att beteendet idag är så invävt i hur LLMs funkar att det kan vara omöjligt att träna bort, då det är nåt som uppmuntrats från första början.
[deleted]
”Ljuger” är fel ordval här. ”Svamlar” är snarare rätt.
“Artificial intelligence usually beats natural stupidity”. Som någon sade i tråden är huvudet på spiken.
AI kan göra mycket. Hade precis en faktura som inte gick ihop, lade upp icke kritisk data och bad om en analys. Tog 5 sek, sen var det klart. I stället för att jag skall sitta och knappa på en kalkylator. Ett bra hjälpmedel i detta fall.
Men det finns en fråga som man inte verkar lära ut längre… “är det rimligt”.
Har “lekt” mycket med AI, aldrig fått ett “jag vet inte”.
Det är en ganska överdriven statistik eftersom man räknat in felaktiga källhänvisningar (som hörde till bland de vanligare problemen) trots att svaren varit korrekta. Men absolut, det är bra att även dessa ingår i analysen eftersom allt ska ju vara korrekt såklart, även om gemene man ofta rentav brukar nöja sig med rubriken…
Journalister ljuger om nyheter 90% av fallen så är inte detta en förbättring?
så den är en perfekt journalist helt enkelt?
De gör som vanliga dagsblaskorna med andra ord? Klickbajt och rapportera rykten som sanning.
Nähä?
För att inte tala om risken med att svammlande/ljusare AIs svar används i artiklar, forum och fan vet jag. Sen använder nästa AI det som underlag för en annan fråga. Ge det några år. Webben du minns är ett minne blott
15 comments
Jo, det har väl varit rätt så kännt ett tag nu. AI-bubblans kollaps får gärna skynda på och komma snabbare.
Visste ni att himlen är blå också?
jag visste att den aktivt ljuger men hälften av svaren är hemskt på tal om hur många som använder den
Vasa? Är inte MechaHitler en pålitlig opartisk källa?
Trots detta publiceras AI-genererad information utan att dess fakta verifieras, information som nya artificiella intelligenser sedan tränar på. [Model collapse](https://en.wikipedia.org/wiki/Model_collapse)
Inte förvånad över att det blir fel. Tror att tex OpenAI för ett tag sedan konatsterade att det delvis beror på ett integralt fel i hur deras AI tränas. Som jag förstår det har man uppmuntrat den till att låta självsäker och aldrig stå svarslös, på bekostnad av precision.
Det märks ibland väldigt bra att det är rena påhitt när man tex kollar på sökresultat från Gemini om nåt det inte finns mycket information om för den att jobba med. Svaren är självsäkra, men informationen går delvis stick i stäv med verkligheten.
Bekymret är också att beteendet idag är så invävt i hur LLMs funkar att det kan vara omöjligt att träna bort, då det är nåt som uppmuntrats från första början.
[deleted]
”Ljuger” är fel ordval här. ”Svamlar” är snarare rätt.
“Artificial intelligence usually beats natural stupidity”. Som någon sade i tråden är huvudet på spiken.
AI kan göra mycket. Hade precis en faktura som inte gick ihop, lade upp icke kritisk data och bad om en analys. Tog 5 sek, sen var det klart. I stället för att jag skall sitta och knappa på en kalkylator. Ett bra hjälpmedel i detta fall.
Men det finns en fråga som man inte verkar lära ut längre… “är det rimligt”.
Har “lekt” mycket med AI, aldrig fått ett “jag vet inte”.
Det är en ganska överdriven statistik eftersom man räknat in felaktiga källhänvisningar (som hörde till bland de vanligare problemen) trots att svaren varit korrekta. Men absolut, det är bra att även dessa ingår i analysen eftersom allt ska ju vara korrekt såklart, även om gemene man ofta rentav brukar nöja sig med rubriken…
Journalister ljuger om nyheter 90% av fallen så är inte detta en förbättring?
så den är en perfekt journalist helt enkelt?
De gör som vanliga dagsblaskorna med andra ord? Klickbajt och rapportera rykten som sanning.
Nähä?
För att inte tala om risken med att svammlande/ljusare AIs svar används i artiklar, forum och fan vet jag. Sen använder nästa AI det som underlag för en annan fråga. Ge det några år. Webben du minns är ett minne blott
Comments are closed.