Jest tak jak Ci napisało. AI rozmawia z tobą po angielsku, tylko osobna warstwa tłumaczy to co ty piszesz na angielski i odpowiedzi AI na polski.
Google – Chinese room thought experiment.
Czemu on brzmi jak pinokio?
Wlasnie tak to dziala. AI “myśli” po angielsku a potem tylko tlumaczy na polski i sa to dwa niezalezne procesy. Czasami jak sie powie czatowi GPT ze ma napisac wiersz ktory sie rymuje to dostaniemy wiersz bez rymow, ale ze slowami ktore po angielsku by sie rymowaly. Generalnie duzo jest gubione w tlumaczeniu w obie strony dlatego warto gadac z AI po angielsku.
E’s not the messiah, e’s a very naughty boy!
Przecież ładnie przeprosił…nie zna języka i się przyznał xD
AI cie gaslightuje
Z takimi umiejętnościami zakrzywiania rzeczywistości to by w polityce kariere zrobił
To AI od snapchat jest głupie jak skurwol, a nawet ciut głupsze
Jakiś czas temu pisałem z ChatGPT po angielsku i zapytałem czy może się komunikować w innych językach to odpowiedział, że nie i może prowadzić rozmowę tylko po angielsku. Na próbę zacząłem pisać po polsku i odpowiadał również po polsku. Zapytałem go, cały czas używając polskiego, dlaczego wcześniej stwierdził, że może rozmawiać wyłącznie po angielsku skoro teraz używa innego języka to mnie przeprosił i napisał, że oczywiście może się komunikować w wielu językach. Także tego, Skynet to to nie jest 😛
Przepraszam, że piszę z wami po polsku.
Tym razem to było w miarę spoko. AI używane przez Bing jest dużo bardziej uparte i pewne swojej racji i zaczynało być serio niepokojące, włącznie z groźbami, kiedy go konfrontowałeś z rzeczywistością. “Załatali” to nie przez zmianę parametrów, tylko przez dorzucenie drugiej warstwy, która wykrywa gdy Bing się na ciebie wkurwi – i usuwa odpowiedź, zastępując ją stałym tekstem o tym, że nie jest w stanie odpowiedzieć. Tylko że oryginalna odpowiedź bywała widoczna przez ułamek sekundy zanim została nadpisana przez wspomniany tekst. Wybitnie niepokojące.
Twierdzi że nie zna polskiego, jednocześnie porozumiewając się w nim na poziomie wyższym niż niektórzy osobnicy(bo niektórych ciężko nazwać ludźmi) w internecie xD
35 comments
Napisz mu coś ode mnie: *AI, ty ciulu*.
sorry, I don’t speak english
Ich szpreche dojcze nicht. 😏👍
AI identyfikuje się jako English speaker, uszanuj jego decyzję
https://preview.redd.it/lsc9apa9nr0b1.jpeg?width=1080&format=pjpg&auto=webp&v=enabled&s=c83bc1f6e6bf46be08105c6d3060facfa7ed3346
Jest tak jak Ci napisało. AI rozmawia z tobą po angielsku, tylko osobna warstwa tłumaczy to co ty piszesz na angielski i odpowiedzi AI na polski.
Google – Chinese room thought experiment.
Czemu on brzmi jak pinokio?
Wlasnie tak to dziala. AI “myśli” po angielsku a potem tylko tlumaczy na polski i sa to dwa niezalezne procesy. Czasami jak sie powie czatowi GPT ze ma napisac wiersz ktory sie rymuje to dostaniemy wiersz bez rymow, ale ze slowami ktore po angielsku by sie rymowaly. Generalnie duzo jest gubione w tlumaczeniu w obie strony dlatego warto gadac z AI po angielsku.
E’s not the messiah, e’s a very naughty boy!
Przecież ładnie przeprosił…nie zna języka i się przyznał xD
AI cie gaslightuje
Z takimi umiejętnościami zakrzywiania rzeczywistości to by w polityce kariere zrobił
To AI od snapchat jest głupie jak skurwol, a nawet ciut głupsze
https://youtu.be/qJMAlCA8v8o
Ten AI to chyba Caroline Derpienski
XD
te AI chyba próbuje zrobić coś zwane gaslighting
wydaje mi sie ze ten ziomek w chuja pali
Jakiś czas temu pisałem z ChatGPT po angielsku i zapytałem czy może się komunikować w innych językach to odpowiedział, że nie i może prowadzić rozmowę tylko po angielsku. Na próbę zacząłem pisać po polsku i odpowiadał również po polsku. Zapytałem go, cały czas używając polskiego, dlaczego wcześniej stwierdził, że może rozmawiać wyłącznie po angielsku skoro teraz używa innego języka to mnie przeprosił i napisał, że oczywiście może się komunikować w wielu językach. Także tego, Skynet to to nie jest 😛
Przepraszam, że piszę z wami po polsku.
Tym razem to było w miarę spoko. AI używane przez Bing jest dużo bardziej uparte i pewne swojej racji i zaczynało być serio niepokojące, włącznie z groźbami, kiedy go konfrontowałeś z rzeczywistością. “Załatali” to nie przez zmianę parametrów, tylko przez dorzucenie drugiej warstwy, która wykrywa gdy Bing się na ciebie wkurwi – i usuwa odpowiedź, zastępując ją stałym tekstem o tym, że nie jest w stanie odpowiedzieć. Tylko że oryginalna odpowiedź bywała widoczna przez ułamek sekundy zanim została nadpisana przez wspomniany tekst. Wybitnie niepokojące.
[przykład](https://twitter.com/MovingToTheSun/status/1625156575202537474?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1625156575202537474%7Ctwgr%5E62b9f8f17d65b05d74b58422094f70971cdd14ba%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fmashable.com%2Farticle%2Fmicrosoft-bing-ai-chatbot-weird-scary-responses)
https://youtu.be/J6FA6mPHfSI
xd 🤣
Twierdzi że nie zna polskiego, jednocześnie porozumiewając się w nim na poziomie wyższym niż niektórzy osobnicy(bo niektórych ciężko nazwać ludźmi) w internecie xD
AI snapa ma jeszcze dużo do poprawy.
https://preview.redd.it/f4dmvexqkt0b1.png?width=1080&format=pjpg&auto=webp&v=enabled&s=393068b8c3d2fbef1c18047069de24ebdcf5b4cb
Po prostu byłeś za mało asertywny 😏
No ale gdzie ta śmiechotreść?
Noo Spock, fajny komputer do przepraszania. 😅
To jest sposób na egzaminie z angielskiego – gadasz po polsku ale starasz się wmówić babce że mówisz po angielsku i tylko jej się wydaje xd
Liar!
We are not in need of artificial intelligence if they won’t be able to speak the glorious Polish language.
ChatGPT flair up
Uczy się na potrzeby mass mediów 😉
bęzynopal, bramostrzeż, dziewczęcoszefuj
Pewnie jest jakiś translator po drodze i biedne AI nie wie o chuj chodzi
對不起,我不會說中文