11350 Podvod se sedmi biliony dolarů Lily Bit

[ Ezoterika ] 2025-11-18

Proč odmítám nazývat degeneraci pokrokem

Sam Altman chce sedm bilionů dolarů za umělou "inteligenci", která možná jednou dokáže zjistit, kolik nohou má kůň. Nebo to bylo kvůli léčbě rakoviny? Nevzpomínám si... Každopádně, aby zůstali věrní tomuto cíli, OpenAI vydalo Soru, video generátor, který denně spálí 700 000 dolarů, aby vytvořil klipy, kde prsty lidí občas prochází pevnými objekty, kde gravitace pracuje do strany, kde koni během cvalu narostou další nohy - kde se mozek s každým přejetím prstem zmenší . Nazývají to inteligencí, "demokratizací" tvorby videa. Je to generátor náhodných čísel s marketingovým oddělením, který se zaměřuje na ty nejhloupější lidi ve společnosti. Celý AI průmysl stojí na základní lži: že rozpoznávání vzorů znamená myšlení, že statistická korelace znamená porozumění, že předpovídání dalšího nejpravděpodobnějšího tokenu znamená inteligenci... Sora neví, co je to kávový šálek - viděl miliony obrázků označených jako "kávový šálek" a naučil se vytvářet uspořádání pixelů, které statisticky připomínají tyto vzory. Když vygeneruje video někoho, kdo pije kávu, nemodeluje fyziku kapalin ani anatomii polykání. Provádí multidimenzionální regresi rozložení pixelů.

Šálek prochází rukou, protože stroj nemá pojem "pevný", "tekutý" nebo "ruční" - pouze statistické korelace mezi RGB hodnotami. AGI - umělá obecná inteligence - měla znamenat stroje, které dokážou myslet, uvažovat a rozumět jako lidé. Řeší nové problémy na základě svých nově vytvořených myšlenek. Vytvářejte skutečné poznatky. Projevujte kreativitu, která není jen kombinací tréninkových dat. Místo toho OpenAI a jeho konkurenti předefinují AGI tak, že "překoná dostatek benchmarků, abychom mohli vyhlásit vítězství." Až příští rok nebo další oznámí AGI, nebude to proto, že by vytvořili myslící stroje. Bude to proto, že úspěšně posunuli branky tam, kde stojí jejich vzorové střiháře. Víš, co to je? Je to zase automatická korekce, jen s lepším uživatelským rozhraním; Automatické doplňování pro pixely. Stejný základní proces, který navrhuje "u up?" za "hej" ve 2 ráno, je zvětšený na nepředstavitelné výpočetní požadavky a oblečen do revoluční rétoriky. GPT modely OpenAI - údajný základ obecné umělé inteligence - jsou glorifikované Markovovy řetězce na steroidech. Nerozumí jazyku; předpovídají pravděpodobnosti tokenů.

Když ChatGPT píše o demokracii, lásce nebo kvantové fyzice, nemá pojem o správě, emocích ani částicích. Provádí statistické porovnání vzorů textu ukradeného z internetu, předpovídá, které slovo pravděpodobně následuje po předchozích slovech na základě miliard příkladů. Stroj, který píše poezii o zlomeném srdci, nikdy nic nezažil, nic nechápe, nic neví. Je to umělost s lepší publicitou. Oznámení AGI, až přijde, bude čisté divadlo... Ukážou ukázky svého modelu, jak prošel lékařskými prohlídkami (porovnáváním vzorů s miliony lékařských textů), psaním kódu (kombinováním příspěvků ze Stack Overflow), vedou "kreativní" konverzace (interpolací mezi komentáři na Redditu). Technologickí novináři, buď příliš nevědomí, nebo příliš zaujatí na to, aby podvod upozornili, budou s nadšením oznamovat příchod obecné umělé inteligence. Cena akcií prudce vzroste. Sedm bilionů financí se skutečně uskuteční. Všechno to bude lež... Sora je monumentem zmateného génia, katedrály postavené k uctívání špatného boha.

Každý brilantní mozek, který pracoval na tom, aby falešná videa vypadala o něco méně falešně, mohl pracovat na skutečném výzkumu. Každý dolar utracený za výuku strojů napodobovat lidskou kreativitu mohl financovat skutečné lidské tvůrce. Každý spálený kilowatthodinový výkon vytvářející "dokumentový" odpad, který "demokratizuje dokumentovou tvorbu", mohl vytvořit dokumenty, které jsou skutečně zábavné na sledování. Altman už přiznal to, co kritici dlouho tušili: humanitární rétorika je jen jen okrasnou fasádou pro získávání bohatství... Když byli dotázáni na propast mezi jejich utopickým marketingem a dystopickými produkty, odpověď byla výmluvná: musí "prokázat schopnosti" a zároveň "budovat příjmy." Překlad: AI léčící rakovinu, ukončující chudobu a urychlující pokrok byla vždy lež, aby ospravedlnila skutečný cíl - monopolizaci infrastruktury digitálního vyjádření, upoutání vaší pozornosti a mučení vašeho mozku. Tréninkový proces AI odhaluje rozsah podvodu. Sora spotřeboval miliony hodin videa, miliardy obrazů, nepoznatelné množství ukradeného lidského tvůrčího výstupu - vše redukované na číselné váhy v neuronové síti.

Stroj se nenaučil, co je západ slunce. Naučil se statistické korelace mezi pixelovými gradienty, které jsou obvykle označovány jako "západ slunce". Může generovat nekonečné variace věcí, které vypadají jako západy slunce, aniž by kdy pochopily, že Slunce je hvězda, že Země rotuje, že světlo se láme v atmosféře. Je to porovnání vzorů bez porozumění, korelace bez příčinnosti, syntax bez sémantiky. Zamyslete se, co Sora vlastně dělá. Vstřebává desetiletí lidské vizuální kultury - každý dokument, každé video, každý fragment zaznamenaného lidského života, ke kterému má přístup - a redukuje to na statistické vzorce. Pak tyto vzory znovu sestavuje do znepokojivých simulací, které vypadají téměř, ale ne úplně správně, jako vzpomínky na sny z dokumentů, na které si jen napůl vzpomenete. Výstup nevyhnutelně obsahuje ten charakteristický AI třpyt: povrchy, které jako by dýchaly, tváře, které se roztají, když se díváte příliš dlouho, fyziku založenou na logice snů spíše než na přírodních zákonech.

Bylo by to jen trapné, kdyby to nebylo tak drahé. Výpočetní požadavky na vytvoření jediné minuty záběrů Sory by mohly pohánět malé město na jeden den. Proces školení spotřeboval tolik elektřiny, že by zásobil tisíce domácností na celý rok. Kvůli čemu? Aby influenceři mohli vytvářet pozadí pro TikToky? Aby marketéři mohli vytvářet syntetická svědectví? Abychom mohli ještě více rozostřit už tak rozmazanou hranici mezi autentickým lidským vyjádřením a algoritmickým přiblížením?

Ujišťují vás však, že jde o "zásadní krok" k jejich posvátnému cíli AGI. To je další lež... Skutečná AGI by vyžadovala něco, co těmto systémům zásadně chybí: model reality. Porozumění příčinnosti, nejen korelaci. Chápání konceptů, ne jen vzorců. Schopnost uvažovat z prvních principů místo interpolace z příkladů.

Žádné současné škálování toho nedosáhne, protože architektura je v základech špatná. Inteligenci nelze postavit ze statistik stejně jako nelze vybudovat vědomí z hodin. Výpočetní požadavky odhalují neefektivitu hrubého vynucení inteligence prostřednictvím statistiky. Lidské děti se učí trvalosti objektu z desítek příkladů; Sora potřebuje miliony videí a přesto generuje šálky na kávu, které se spontánně promění v konvice uprostřed záběru. Tříleté dítě chápe, že lidé mají dvě ruce; Sora, i když spotřebuje více vizuálních dat, než by jakýkoli člověk dokázal za celý život zpracovat, stále vytváří lidi se třemi pažemi vyrůstajícími z trupu. Altman ví, že AGI nepřijde. V soukromých rozhovorech, které unikly bývalí zaměstnanci, přiznal, že současné přístupy mají zásadní omezení. Veřejně však udržuje fikci, protože celý domeček z karet - ocenění, vládní schválení, investice, sedm bilionů dolarů - závisí na tom, že investoři "věří", že AGI je na spadnutí. Známka je v tom, jak neustále redefinují úspěch.


Za prvé, AGI znamenala inteligenci na úrovni člověka ve všech oblastech. Pak se to stalo "lidskou úroveň u nejcennějších ekonomicky hodnotných úkolů." Teď je to "splňuje určité standardy lépe než průměrní lidé." Když AGI vyhlásí vítězství, bude znamenat, že "generuje výstupy, které oklamou lidi, kteří tak dlouho konzumují AI odpad, že nedokážou rozpoznat skutečné myšlenky"... Celá revoluce velkých jazykových modelů je postavena na tomto písečném základu. GPT-5, Claude, Grok, Gemini (pamatujete si Gemini?) - to jsou všechny variace stejného podvodu: stroje, které simulují porozumění pomocí statistické korelace, napodobují inteligenci pomocí porovnání vzorů, falešné vědomí pomocí výpočtů pravděpodobnosti. Proto všechny zní stejně. Generují text, který se zdá smysluplný, protože se naučili, jak smysluplný text obvykle vypadá, ne proto, že by chápali význam...

Sledujeme systematickou redefinici inteligence, aby odpovídala tomu, co stroje dokážou předstírat, místo toho, co inteligence skutečně je. Je to jako prohlásit, že hráčské klavíry zvládly hudební výkon - technicky působivé, zcela bezduché a bez smyslu hudby. Zvažte, co OpenAI nazývá "emergentními schopnostmi" - údajně překvapivými schopnostmi, které se objevují, jak modely rostou. Ale to nejsou vznik inteligence, jsou to jen statistické nevyhnutelnosti. Vložíte dostatek textu o šachu do sladitele vzorů a nakonec bude reprodukovat tahy podobné šachovým. Ne proto, že by rozuměl strategii nebo plánování (nebo co šachy vůbec jsou), ale protože viděl dost příkladů, aby předpověděl pravděpodobné další tahy. To není hraní šachu. Jde jen o regresní analýzu šachové notace. Průmysl to ví. Interní dokumenty od několika AI firem odhalují, že inženýři označují své modely jako "stochastické papoušky" - stroje, které náhodně kombinují naučené vzory bez pochopení.

Přesto veřejně udržují fikci inteligence, rozumu, porozumění. Musí. Celé ocenění 150 miliard dolarů závisí na tom, že investoři věří, že tyto stroje přemýšlejí, nikoli jen počítají pravděpodobnosti. Proto ti lidé na X zní tak neuvěřitelně hloupě... Nejsem proti umělé inteligenci. Myšlenka, že stroje by jednoho dne mohly zesílit lidské poznatky, urychlit objevování nebo nám pomoci lépe pochopit sami sebe, je krásná. Co odmítám, je podvod: marketingové divadlo, které prodává regresi jako odhalení, manažeři, kteří zakrývají kočky v autech, jsou zastavováni policií jako majáky lidského pokroku, AI bros, kteří předstírají, že ten flášť je forma umění... Není nic špatného na tom, vytvářet nástroje, které nám pomáhají myslet rychleji nebo jasněji; Co je špatně, je předstírat, že ty nástroje dokážou myslet, cítit nebo tvořit... Tragédií je, že jsme proměnili jeden z nejperspektivnějších nápadů lidstva v podvod postavený na humbuku, krádeži práce a klamání.

Opět se AGI bude nazývat "AGI", protože úspěšně přesvědčili dostatek lidí, že sofistikované porovnání vzorů znamená myšlení. Ukáže úspěšné testy, rozhovory, které zní lidsky. Nezmíní, že jsou to všechno statistické mimikry, že stroj nemá větší porozumění matematice než kalkulačka. Plýtvání energií je ještě obscénnější, když pochopíte, co se vlastně děje. Spalujeme gigawatty elektřiny ne pro myslící stroje, ale pro průmyslové tvůrce odpadu. Uhlíková stopa při tréninku GPT-4 - ekvivalentní emisím za celou dobu života 500 aut - byla věnována učení stroji předpovídat, že "kočka" často sleduje "něco" a "sedí na". Miliony galonů vody chladící Sorovu tréninkovou infrastrukturu byly použity k tomu, aby se naučil, že se nad vzory skvrn barvy kůže často objevují vzory barev triček. Tohle je to, co koupí za sedm bilionů dolarů: sofistikovanější sladění vzorů. Větší statistické modely. Výpočty pravděpodobnosti s vyšším rozlišením. Ne inteligence, ne porozumění, ne vědomí - jen stále dražší způsoby, jak generovat statisticky pravděpodobné výstupy, které lidem připadají smysluplné, když už zapomněli, co znamená smysl.

A pak je Sam šťastný, Donald je šťastný, Jensen je šťastný... Jednoduše proto, že se jim podařilo škálovat americká datová centra lépe než ostatní, takže se stala největším tvůrcem digitálního odpadu na světě. Děkuji za vaši pozornost k této záležitosti. Problém "halucinací", který AI firmy považují za drobnou chybu, je ve skutečnosti logická chyba. Tyto systémy nehalucinují (což by ironicky vyžadovalo schopnost skutečného původního myšlení) - fungují přesně podle návrhu a generují statisticky pravděpodobné výstupy bez ohledu na pravdivost či přesnost. Když ChatGPT vymýšlí vědecké články, které neexistují, nedělá chybu - dělá to, co vždy: vytváří text, který připomíná text, který už viděl, a zní věrohodně. Stroj neví, co znamená "pravda" nebo "lež". Zná pouze pravděpodobné sekvence tokenů. Restrukturalizujeme celé odvětví kolem těchto pravděpodobnostních kalkulaček. Nahrazení lidského úsudku statistickým průměrováním. Nahrazení opravdové kreativity rekombinací vzorů. Vyměňuje skutečnou inteligenci za svou simulaci.

Čím více AI je na firemních papírech, tím vyšší je ocenění akcií. Cena akcií Applu prudce klesla, protože zůstali zticha, zatímco ostatní byli pohlceni AI šílenstvím. Inovativní image Applu byla pošramocena. Když představili Apple Intelligence, soubor převážně nepoužitelných a sotva funkčních nástrojů, investoři byli opět spokojeni. Společnosti prodávající tyto systémy si uvědomují, že jim chybí inteligence - podívejte se na jejich technické články (Apple to dokonce otevřeně přiznal a kritizoval v článku, který působí, jako by Steve Jobův dávno zapomenutý poslední dech rozumu pronikl Apple Parkem) - ale také chápou, že trhu to nevadí, pokud výstupy vypadají dostatečně přesvědčivě.

Prompt engineering kněžství, které se objevilo, odhaluje absurditu. Kdyby byly tyto systémy inteligentní, nebylo by potřeba složitých zaklínadel, aby produkovaly použitelné výstupy. Nepotřebovali byste "jailbreaky", "systémové výzvy" a pečlivě sestavené instrukce. Komunikovali byste normálně, stejně jako u kohokoli, kdo skutečně rozumí jazyku. Místo toho máme celý průmysl prompt inženýrů - lidí, jejichž úkolem je oklamat pravděpodobnostní kalkulačky, aby vytvořily konkrétní vzory pečlivou manipulací s vstupním textem - a pak vám je prodávají v tabulkách za 60 dolarů. Výzkumníci OpenAI v článcích, které sotva vstoupí do titulků, tyto limity uznávají. Píší o "schopnostní mráze" - tendenci, aby velké modely vypadaly schopnější, než ve skutečnosti jsou, protože si zapamatovaly obrovské množství trénovacích dat. O "falešné korelaci" - tendenci stroje učit se náhodné vzory místo smysluplných vztahů. O "posunu distribuce" - jak modely katastrofálně selžou při vstupech, které se liší od trénovacích dat. Ale tato přiznání jsou pohřbena pod lavinami humbuku kolem AGI, vědomí, strojů, které myslí. Realita - že jsme postavili velmi drahé generátory náhodných čísel - neprodává podnikové licence ani neospravedlňuje ocenění v miliardách dolarů.

Sora videa, která OpenAI prezentuje, jsou pečlivě sestavována z tisíců generací, vybírána ta, kde mají koně správný počet nohou, kde šálky kávy neprocházejí rukama, kde fyzika omylem vypadá správně. Na každé video, které ukázali, byly stovky vyřazeny, protože odhalovaly, co systém vlastně je: naprostý nesmysl. Tohle je podvod za sedm bilionů dolarů: prodávat porovnání vzorů jako inteligenci, korelaci jako porozumění, pravděpodobnost jako porozumění. Stroje nemyslí - provádí statistické operace. Nevytváří - znovu kombinují. Nerozumí - počítají korelace. Ekologická katastrofa, plýtvání zdroji, klamání lidského talentu - to vše slouží k vytvoření sofistikovanějších pravděpodobnostních kalkulaček. Stroje, které dokážou generovat text, který zní smysluplně, aniž by něco znamenal. Videa, která vypadají skutečně, aniž by reprezentovala realitu. Odpovědi, které se zdají být správné, aniž by správně pochopily otázky.

Mezitím populace postupně hloupí konzumováním obsahu generovaného umělou inteligencí a ztrácí schopnost rozlišit mezi opravdovým myšlením a statistickou aproximací. Jsme školeni přijímat vše nižší kvality - horší kvalitu psaní, horší kvalitu obrazů, horší myšlení. Až OpenAI prohlásí AGI za dosaženou, budeme si tak zvyklí na syntetické aproximace, že si nebudeme pamatovat, jak vypadá skutečná inteligence. To je konečná fáze mozkové hniloby, která je jádrem revoluce AI: přesvědčili jsme se, že dostatečně sofistikované porovnání vzorů znamená inteligenci, že dostatečně velké statistické modely znamenají porozumění, že pravděpodobné výstupy odpovídají myšlenkám. Spletli jsme mapu s územím, simulaci s realitou, vzor s významem. A chystáme se utratit sedm bilionů dolarů za tohle...! Díky, Same. Velmi cool..

Zdroj: https://www.bibliotecapleyades.net/ciencia4/ai69.htm

Zpět