Új tech trendek és egyebek...

ÚJTECHKOR...

ÚJTECHKOR...

Az "AI Safety" egy bullshit - Nem AI hanem LLM ( egy kiegészítéssel )

2024. június 03. - GABOR2

Nemrég írtam egy cikket ami bemutatta az LLM korlátait... LLM, nem pedig AI, bár annak mondják. És igen, a legnépszerűbb "AI" a ChatGPT is csak egy LLM.

És ha megismered mi is igazából az LLM akkor világos lesz számodra, hogy az LLM sohase fog gondolkozni, sohase fog öntudatraébredni, egyszerűen ez a technológia ezt nem teszi lehetővé. Vannak olyanok akik szerint ha annyi adattal tömjük őket teli, hogy a világ többé nem tud meglepetést okozni neki, akkor totál le fogja tudni szimulálni azt mintha gondolkodna és akkor majd lehet filozofálni arról, hogy ha valami totál leszimulál valamit akkor tulajdonképpen igazából is az... De persze idáig el se fogunk jutni, mert ehhez annyi, de annyi sok adat + betanítás kellene.

Ez a betanítási rész kimaradt a múltkori bemutatóból, legalábbis nem került fókuszba, a lényeg: nem elég, hogy sok adat legyen, meg kell tanitani azt is mi a helyes megoldás, adat. Ehhez pedig rengeteg ember "rabszolgamunkája" kell.

A következő verzió is szenvedni fog ezektől a korlátoktól:

"Elkezdte egy új, még okosabb mesterséges intelligencia tanítását az OpenAI"

"Az OpenAI kedden bejelentette, hogy megkezdte egy teljesen új generációs mesterséges intelligencia modelljének tanítását. Bár a cég nem közölte az új modell nevét, esetében nyilvánvalóan a már régóta várt GPT-5-ről van szó, ami a várakozások szerint még okosabb lehet majd és még többet tudhat, mint elődje."

De akkor térjünk is rá a cikkem fő témájára: Az "AI biztonsági" tanácsok bullshitek.

Lelövöm előre a poént, szerintem a legvalószínűbb oka a létezésüknek, hogy ezek simán csak marketing fogások, de azért majd felhozok pár alternatív választ.

Az hogy bullshitek eleve következik abból, hogy ez a technika sohase fogja azt csinálni, hogy egyszercsak öntudatraébred és azt gondolja, hogy megítéltem az embereket és most akkor megyek rájük küldöm a nuke-ok záporát.

De vannak itt egyéb dolgok is amik mutatják, hogy valami nagyon fura ezek körül a "biztonsági tanácsok" körül.

De előbb menjük vissza kezdetekhez.

Korábban az OpenAI és ChatGPT "arca" átutazta a világot és konferenciákat tartott arról, hogy milyen nagyon aggasztja, hogy amit csinálnak "AI" elpusztíthatja a világot és nagyon fontosnak tartja AI Safety-t, és hogy csináltak is ilyen "független" biztonsági tanácsot ami nagyon-nagyon fontos.

Meg jöttek a cikkek arról a "mértékadó" médiumokban, hogy igenis ez a technológia nagyon más és kongresszusi meghallgatás kell a témában és ez a technológia sokkal veszélyesebb az emberiségre mint az atomfegyverek, vagy a másik kedvenc, a klimaváltozás és hagy ne soroljam még az ezer milliárd egyéb agysorvasztó cikket a közelmúltból.

"Geoffrey Hinton: A.I. is a bigger threat than climate change"

"AI vs. nukes: ‘This is much more dangerous’"

Viszont nemrég történt egy olyan, hogy egy emberke adott egy interjút arról mi is folyt a cégen belül. Őszintén nem nagyon néztem utánna, de magyarul kb. csak olyan dolgokat láttam a témában, hogy kb. két mondattal intézték el ezt az interjút. Kb. úgy hogy : "olyan dolgokat mondott az illető ami nem hízelgő Sam Altmanra nézve". Az is kiderült, hogy olyan titoktartási szerződést vagy mit írattak alá velük ami... az egész életükre szól és az is tilos, hogy bármi rosszat nyilatkozzanak a cégről... egész hátralevő életükben. Ezt az illetőt viszont ez úgy tűnik nem érdekelte és elárult több... kínos dolgot. Én se fogok belemenni abba, hogy az egész interjút megtárgyaljam itt, de van itt viszont egy rész ami érinti a témánkat.

Ugyanis kiderült az is, hogy a AI Safety ami elvileg hiper-szuper fontos, hisz a nukreális fegyvereknél is nagyobb veszély ellen védi az emberiséget... egyszerűen nem kapott számítási kapacitást... nem kapott szervereket, hogy el tudja végezni a munkáját.

Na most gondolhatnád, hogy a kapacitások végesek és most fontosabb, hogy a terméket fejlesszék azért történt ez. De nem... az OpenAI partnere lett a Microsoftnak, amivel egy olyan megállapodást eszközöltek ki, hogy az OpenAI csapata limit nélkül haszálhatja a Microsoft felhőjét... LIMIT NÉLKÜL ÉS TELJESEN INGYEN. Elméletileg fizet a kapacitásért az OpenAI, de igazából nem:

"Free Rent: OpenAI Deal Shows One Way Microsoft Seeds"

"Microsoft and OpenAI extend partnership"

"Több milliárd dollárral támogatja meg a ChatGPT mögött álló OpenAI-t a Microsoft"

Szóval akkor mennyire lehet fontos Sam Altman-nak igazából a "AI Safety" osztály, ha úgy, hogy limintnélkül és gyakorlatilag ingyen kap az OpenAI a Microsoft felhőjéből kapacitást amennyit csak akar, ő mégis úgy dönt, hogy az "AI Safety" osztály ne kapjon semmit?

Persze felmerülhet az, hogy ezt azért tette Sam Altman mert egy pszicopata aki el akarja pusztítani az emberiséget és ehhez tiszta utat akar adni az AI-nak.

Vagy felmerülhet az is, hogy azért csinálja, mert ő egy pszicopata aki látja, hogy bár komolyan veszélyes az AI, de őt igazából őt csak a pénz érdekli.

Ezt még ez a tőle származó mondása is megerősíti:

"A mesterséges intelligencia nagy valószínűséggel a világ végéhez fog vezetni, de addig is lesznek nagyszerű cégek"

De lássuk be, mivel már tudjuk, hogy ez a technológia képtelen lenne öntudatraébredni... talán inkább azért nem adott nekik számítási kapacitást, hogy tudják a "munkájukat végezni", mert... igazából nem érdekli a dolog... mert tudja, hogy igazából ez az egész egy bullshit. Tudja, hogy igazából semmi igazi szükség sincs egy ilyen osztályra.

Ez az egész AI Safety egy bullshit. Konkrétabban egy marketing bullshit. Akik részt vettek benne talán ezt nem is tudták? Elég durva lenne ha így lenne. Talán ha valami filozófusokból állt a csapat vagy hasonlókból akkor talán érhető, hogy még ők se értették meg mi is ez az egész technológia a valóságban.

Mindenesetre mint tudjuk az eredeti AI Safety csapat feloszlott, többen leléptek, meg ment a kavarás, de végül nemrég egy új AI Safety alakult... Ki benne vezető tag: 

Sam Altman, aki korábban nem akart adni nekik egy fikarcnyi kapacitást se... "Biztos" nagyon független és jó munkát fog végezni az új csapat.

"Biztonsági tanácsot és újabb áttörést ígér az OpenAI"

"Miközben az OpenAI-t olyan magas rangú vezetők hagyták ott, akik kritizálták a cég kereskedelmi törekvéseit, Sam Altmanról pedig továbbra is érkeznek nem túl kedvező képet festő jelentések; az OpenAI elindította a biztonsági tanácsát."

"Utóbbit az igazgatótanács tagjai vezetik, köztük Sam Altman, Bret Taylor, Adam D’Angelo és Nicole Seligman"

Szóval ettől függetlenül is sokan mondják, hogy Sam Altman egyre inkább egy könyörtelen, mindenáron AI-t erőltetővé válik, de... ő fogja vezetni az AI Safety osztályt. Eztuán még ennyire se lehet majd ezt komolyanvenni.

Az AI Safety csapat igazából két dolog miatt létezik. Az egyik, hogy olyanná alakítsa az AI-t ami magától sohase lenne: Woke-ká.

A másik és leginkább igazi oka a létezésének: Marketing fogás. Ha olyanokat hallasz, hogy az AI elhozza a Paradicsomot, vagy éppenséggel az pusztulást az emberiségnek, akkor arra sokkal inkább odafigyelnek majd az emberek mintha elárulnák, hogy igazából ez az egész arról szól, hogy minden cucc ezután kap egy chatbot-ot és nyújt majd egy középszerű, megbízhatatlan szolgáltatást. Plusz még ilyen szimpatikus, felelős embereknek tűnünk tőle.

De minél többen minél előbb megtudják mire is képes igazából a ChatGPT és mik a határai annál hamarabb pukkanhat ki a lufi.

Sőt, ez már folyamatában van talán:

"Kiderült: Lufi az egész, szinte senki sem használja a mesterséges intelligenciát"

"Azt, hogy a ma mesterséges intelligenciának hívott különböző technológiák képességei és értéke - legalábbis tudományos vagy tájékozódási célokra - erősen túl vannak értékelve, oldalunkon már többször egyértelművé tettük. Egy új statisztika szerint azonban még az egyéb (pl. szórakozási) célokra is sokkal kevesebben alkalmazzák őket, mint amit a napi szinten megjelenő hírekből, vagy abból gondolnánk, hogy a Microsoft és a Google mekkora jelentőséget tulajdonít nekik."

"Ez szöges ellentétben van azzal a hírveréssel, ami a szóban forgó technológiákat ötvözi, és ami alapján azt gondolhatnánk, hogy azok az élet minden területét elképesztő ütemben ellepik. Szintén összeegyeztethetetlenek a mérések azokkal a pénzekkel, amiket a különböző befektetők és nagyvállalatok fordítanak a generatív MI-s szolgáltatások kiépítésére és terjesztésére."

"Magyarázza ugyanakkor, hogy pl. a Microsoft miért fordul egyre agresszívebb módszerekhez annak érdekében, hogy végre az emberek használják már Copilot szolgáltatásait, és az ebbe eszközölt irdatlan befektetéseit ne kelljen rövid időn belül leírnia "

 

 

Kiegészítés:

Én nem is akartam berakni ezt eredetileg, mert amikor erről hallottam eredetileg ugynevezett "second hand embarrassment" jött elő nálam, vagyis én érzem magam kínosnak és az agyam egyszerűen ki akarta törölni azonnal az információt annyira képtelen volt elhinni.

De azért mégis megírom nektek.

Szóval gondolhatjátok, hogy így bántak ezzel a AI Safety csapattal elég hihetetlen, de van egy korábbi igazgazgató az OpenAI-tól, aki talán maga is része volt ennek a AI Safety csapatnak. Már nem tudom követni annyi ment el vagy rúgtak ki. Nos... ő azt állítja, hogy mint igazgató és AI Safety csapat tag csak utólag értesült az egész ChatGPT bevezetéséről miután látta a bejelentést róla a Twitteren... Sőt az egész igazgatóság így tudta meg.

"Ex-OpenAI Director Says Board Learned of ChatGPT Launch on Twitter"

Szóval ez az egész AI Safety team ott volt, nem értett semmit, nem csinált semmit... kaptak egy csomó pénzt ezért, azt hitték Sam Altmannék, hogy ezt elfogadják az AI Safety tagok és hallgatnak az egészről, de valakik úgy voltak vele, hogy nem. Talán azért mert ők tényleg elhitték, hogy az emberiség érdekében ehhez nem aszisztálhatnak. Mert ezek igazából ilyen filozófusok és hasonlók, nem informatikusok, tehát sohase értették meg hogy mivel van dolguk.

A bejegyzés trackback címe:

https://ujtechkor.blog.hu/api/trackback/id/tr3218420651

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Koenigsberger 2024.06.05. 06:17:26

Még az előző (belinkelt) cikkhez szólva: az AI-nak csúfolt LLM ott bukik le, hogy nem érti a dolgok funkcióját. Amikor először próbálkoztam képgenerálással, horrorisztikus volt, amit kaptam ezekre: hand holding a pen, vagy sitting cat - egyszerű dolgok, és mégis. Az LLM pl. nem érti a kéz vagy a láb funkcióját. Végső soron csak visszadobál másolatokat, nem képes élő és élettelen közt különbséget tenni. Noha erre bármelyik élőlény mondhatni a születése után rögtön képes.

Az AI Safety nagyon olyasminek tűnik, mint a health & safety meg persze a szabadság-egyen... akarom mondani diverzitás-egyenlőség-inkluzivitás: valami alapja van, csak nem annyi, hogy erre külön karriereket és rendszereket kéne építeni, mert rövid úton önmaga paródiájába fullad. Az AI Safety is csak arra lesz jó, hogy az „okosok" megmondják, mire szabad használnod. Különben te leszel a sötétben bujkáló, rémhíreket terjesztő ellenforradalmár.

GABOR2 2024.07.09. 23:39:44

@Koenigsberger: AI Safety talán kéne, de nem az adott cégre kéne bízni + először kéne ugye az, hogy valódi AI legalább elméletileg születhessen abból amit csinálunk...
süti beállítások módosítása