Írtam arról, hogy a ChatGPT-5 bemutatkozása nagyon rosszul sikerült.
Hogy azzal próbálkoztak, hogy az összes korábbi modelt ( amik olcsóbbak lennének, vagy ingyenesek ) elérhetetlenné tették, de annyira nem tetszik az új, legújabb verzió az emberek, hogy visszakövetelték... mert szerintük azok jobb válaszokat adnak.
És az egyik példa amit felhoznak, hogy mennyire buta a ChatGPT-5 és amin röhög az internet népe, hogy a bemutatónál volt egy pár akik arról beszéltek, hogy a ChatGPT-re bízták, hogyan kéne kezelniük a rákot, amivel küszködik a nő...
Csak emélkeztetőül, hogy milyen jó tanácsot adott másnak is a ChatGPT egészségügyi témában:
"Megmérgezte magát a férfi, aki vakon követte a ChatGPT tanácsait"
Szóval bízd rá a ChatGPT-re hogyan kezeld a rákod, meg intézd a pénzügyeid stb.... viszont ne kérdezd őt, hogy mennyi b betű van a Blueberry szóban, mert nem tud megbírkózni vele.
De amint a fenti mérgezési esetnél is volt: Bár nem tudja a helyes választ, hülyeséget mond, viszont azt baromi magabiztosan teszi, ha külön rákérdezel még el is magyarázza részletesen, hogy miért a van a Blueberry szóban három b.
És itt egy cikk ami ezzel foglalkozik:
"The Blueberry Problem: Why Advanced AI Like GPT-5 Fails at Simple Logic"
"How many 'b's in blueberry?: Why GPT-5 Still Fails at Simple Logic Puzzles"
"Ask one of these super-advanced AIs a ridiculously simple question, like "How many 'b's are in the word 'blueberry'?", & you might get a confident, yet COMPLETELY wrong, answer."
És ahogy írják is: Az, hogy az AI gondolkozik az egy illúzió, már csak azért is, mert ez LLM, nem AI igazából.
"The "Illusion of Thinking""
"First off, we need to get one thing straight: LLMs don't think like we do. They are masters of pattern recognition, not genuine comprehension. An LLM is a type of deep learning neural network, most commonly built on what's called the Transformer architecture. This architecture is brilliant at processing massive amounts of text—we're talking about a significant chunk of the internet—& learning the statistical relationships between words & phrases.
When you ask it a question, it's not reasoning from first principles. It's making a highly educated guess about what the next word in the sequence should be, based on the countless examples it has seen during its training. "
És ahogy írják is az LLM-ek nem gondolkoznak, hanem a rengeteg betanult példa után találgatnak, hogy mi a valószínű válasz. Nem gondolkozik, valószínűségre alapozva ad választ.
És ez a cikk is felveti amit én már rég: Az LLM-ek sohase, tényleg sohase lesznek megbízhatóak. Akkor viszont hogy képzelik, hogy a cégek rájuk bíznának fontos dolgokat, nem kéne vakon semmiképp... De akkor meg nem lesz olcsóbb, mert kell ember aki ellenőriz.
"The Business Implications: When "Good Enough" Isn't"
"This is where things get really practical, especially for businesses. We're all excited about using AI to automate tasks, improve customer service, & drive efficiency. But if the underlying technology has these kinds of logical blind spots, we have to be incredibly careful about how we deploy it."
És amúgy van itt egy másik ok is amiért a népszerű AI-k valószínű egyre rosszabbak lesznek.
Írtam már arról, hogy Musk nyilatkozott egy olyat, hogy elfogyott az emberek által létrehozott adat amivel lehetne táplálni az AI-kat, hogy okosodjanak.
És két módszer merült fel: "szintetikus adatokat" kéne használni betanításra. De ez igazából garantálja, hogy rosszabbak lesznek a válaszok.
A másik, hogy egyszerűen a AI-k, igazából LLM-ek rácuppannak közösségi médiákra és élőben fogyasztanak mindent amit az emberek írnak...
Ez jól hangzik, de... az emberek a közösségi médiákban... sok hülyeséget is írnak és mivel az LLM-ek nem gondolkoznak igazából, ha eleget "hallanak" valamit a közösségi médiákban, azt fogják gondolni igaznak, mégha a legtöbb embernek világos lenne a dolog, hogy csak mondjuk egy vicc.
És hát itt van egy friss 2025 top lista, hogy honnan tanulnak az AI-k:
Top 1: Reddit
Egy mára egy eléggé baloldal által uralt, jobboldaliakat kiszorító oldal... Vajon milyen okosságokat tanulhat ott az AI-k...
"Reddit claims top spot as most cited domain in AI-generated answers"
"The online forum is aiming to be a go-to search engine for questions and answers"
Szóval egy politikailag elfogult helyre mennek válaszokért az "AI-k", ahova mindenféle egyszerű ember írkálhat baloldali baromságokat büntetlenül... Mi baj lehet ebből?
A teljes friss toplista itt van:
"Reddit tops AI information top sources list in 2025, outpacing Google and Wikipedia"
Wikipedia ranks second with 26.3% of citations, followed closely by YouTube (23.5%) and Google’s own search results (23.3%). Yelp (21%), Facebook (20%), and Amazon (18.7%) also made it to the top 10, highlighting the diverse mix of sources fuelling AI outputs. Travel reviews platform TripAdvisor (12.5%), mapping services Mapbox (11.3%), and OpenStreetMap (11.3%) round out the list.
Szóval ott van még többek között a Facebook és pl. Youtube mint forrás az igazságról az AI-nak...
És ettől várnák, hogy jobb válaszokat adnak majd?
Ezek az oldalak teli vannak emberi marhasággal, szeméttel, totál téves infókkal, amiket terjeszthet akárki...
Nem tűnik fényesnek az AI jövő... igazából LLM.