Ako je možné, že GPT zdanlivo zodpovie na ťažké filozofické či vedecké otázky, no neovláda matematiku na úrovni 1. Triedy?

Riešim matematickú challenge, kde mám vyjadriť každé číslo 1-20 len pomocou čísla 4 a mat operácii. Zasekla som sa, reku nechám sa trochu postricit GPT… No zisťujem, že je ešte hlupejsi než ja.

Čím je to spôsobené, z akého nedostatku v technológii toto pramení, že nemá v sebe zabudovanú základnú kalkulačku?

by veve87

19 comments
  1. Ešte aj keď mu poviem, že tam je chyba a dám feedback, ani tak sa neopravi správne a dáva zlé výsledky opakovane.

  2. Jeho účelom nie je riešiť matematické alebo iné problémy (alebo všeobecne hovoriť pravdu či fakty).

    Je to primárne rečový model, a to zvláda veľmi dobre.

  3. Toto navrhne Gemini:

    While there’s no simple way to express 14 using only the number 4 and basic arithmetic operations (+, -, *, /), we can achieve it with a combination of operations including factorials.

    One way is: (4!)! / ( ((4!)!)!)

    Here’s the breakdown:

    * (4!) = 4 * 3 * 2 * 1 = 24 (factorial of 4)
    * (4!)! = 24! (factorial of the factorial of 4) – This is a very large number.
    * ((4!)!)! = Factorial of the above number (factorial of a very large number). This number will be even larger.

    Dividing (4!)! by ((4!)!)! essentially cancels out the extremely large numbers, leaving a remainder of 14.

    It’s important to note that this approach relies on properties of factorials that make calculations quite complex for larger numbers.

  4. Jedine co vedia tieto AI chaty robiť dobre je ze sa vedia tváriť sebavedomo.

    Ako ten kamarát, ktorý všetko “vie” ale len dokial sa vedľa neho neposadí odborník.

    Je to zaujímavý nástroj na niektoré prípady ale človek musí celý čas myslieť zaňho.

  5. Toto navrhne Copilot

    Certainly! The number **14** can be expressed using only the number **4** and mathematical operations as follows:

    14=4+4+4+2

  6. Vetsina tychto modelov vratane GPT robi v zaklade jednu jedinu vec: snazi predikovat dalsi token v texte. S tymto pristupom sa da dostat daleko, ale ma svoje limity. Pokial sa jedna o matematicke ulohy, tak proste niekedy predikuje spravnu cislicu a niekedy nie. Nikto tieto modely priamo nenaucil, ako matematika funguje. Treba ale povedat ze platena verzia GPT by si s mnozstvom matematickych problemov poradila lahko. Vie totiz pisat a pustat kod v programovacom jazyku Python. Proste napise program, ktory ten priklad vypocita a hotovo.

    Naviac drobne zmeny v otazke mozu mat velky vplyv na vysledok. V jednom vedeckom clanku som sa napriklad docital ze pridanie frazy “Let’s take a deep breath” vyrazne zvysi uspesnost aspon v niektorych benchmarkoch.

    Dalsou vecou je, ze tieto modely maju pri generovani tzv. teplotu. To znamena ze nemusia nutne zvolit token, ktory ma najvacsiu pravdepodobnost. Cim vyssia teplota, tym vacsia sanca, ze sa zvoli nejaky token s nizsou nez najvacsou pravdepodobnostou. Programatori, co pouzivaju GPT cez API maju moznost tuto teplotu zmenit, kludne aj na nulu (a tym padom garantovat, ze sa vzdy vyberie ten najpravdepodobnejsi token). V ChatGPT ale tato moznost nie je.

    (Token je jednotka textu, jedno slovo sa typicky sklada z jedneho alebo viacerych tokenov. Token ale moze byt aj interpunkcne znamienko, medzera ci nejaky iny znak alebo postupnost znakov)

  7. Ak by si od kalkulačky chcela aby ti niečo rozprávala, tiež by to nefungovalo.

    Jedinou funkciou GPT modelu je tvoriť najpravdepodobnejšie sekvencie slov pre tvoj prompt, nič viac. Ani obsah, ani správnosť, dokonca ani štylistika viet ho “nezaujíma”.

    (4×4×4−4−4)/4

  8. Chatgpt nie je hlúpy. Jednak nie je tam nato, aby za ľudí riešil domácu úlohu z matiky. A jednak, chatové ai sa učia tak že čítajú stovky textov a vidia, ale slová nasledujú aké slová a ako často. Potom ich dáva dokopy pri odpovedi.

  9. Lebo ludi matie slovo Intellegence. GPT nerozmysla, je to LLM trenovany na masivnom mnozstve dat a jedine co robi, je to, ze vybera text, ktory s najvacsou pravdepodobnostou zodpoveda tvojej otazke.

  10. Pytam sa gpt.
    Aky je velky chrysler town and country.
    Odpovedal spravne.
    Aky je cargo priestor. Odpovedal spravne.
    Aky je rozmer plywoodu.
    8×4 feet.
    Pytam sa vojde mi do daneho auta plywood.
    Napisal ano a este mi aj ostane – 1,4 feet 😂
    Takze nie – vojde a este ti aj ostane -40cm cca.

    Plywood doska je vacsia ako cargo priestor o 1.4 ft .
    Proste mu to tvrdohlavo vyslo a hotovo human!!

  11. Pretoze to nie je osoba, ale glorifikovany “auto-complete”, vo svojej zakladnej podstate. Ak toto dnes niekto nechape, potom je mi ho akurat luto 😉

  12. On udělal to co jsi po něm chtěl. Když mu to nejde, tak si to prostě vymyslí.

  13. Lebo GPT (aj ostatné LLM modely) robia v zásade to isté ako opakované stláčanie predictive text/autocorrect na tvojej mobilovej klávesnici, iba trochu komplikovanejšie.

    GPT nevie čo je 14, alebo 4. Nevie ani čo je matematika a čo sú rovnice. Vie iba, že po (4+4) pravdepodobne nasleduje +, lebo tak to je v jeho trénovacích dátach.

Leave a Reply