9745
AI nemůže nahradit lidi Brian Shillhavy
[ Ezoterika ] 2025-06-07
Stále více technologických lídrů se učí, že umělá inteligence nemůže nahradit lidi - efektivita a přesnost se ve skutečnosti zhoršují
Když jsem na konci roku 2022 začal psát o bublině umělé inteligence a budoucím kolapsu velkých technologických společností, když jsem spustil první aplikaci pro umělou inteligenci LLM (Large Language Models) společnosti ChatGPT, byl jsem jen jedním z hrstky autorů, kteří pracovali v oblasti technologií a varovali veřejnost před nebezpečím spoléhání se na tuto "novou" technologii. Tehdy se kromě mě ozvalo několik nesouhlasných hlasů, ale nyní, o dva a půl roku později a $trilliony dolarů investic do LLM AI, neuplyne ani den, kdy bych neviděl články dokumentující selhání této umělé inteligence a informující o faktických zprávách o tom, jaká jsou její omezení a selhání, místo aby se rozléval humbuk.
AI LLM jsou skutečně revoluční v tom, co dokážou. Víra ve sci-fi a pohledy a přesvědčení lidí o budoucnosti AI ale nakonec zničí americkou ekonomiku a také většinu zbytku světových ekonomik, protože doslova sází na to, že se tato sci-fi jednoho dne skutečně stane skutečností.
Několik nedávných článků poskytuje více než dostatek důkazů o tom, že "revoluce" umělé inteligence se v určitém okamžiku zhroutí, podobně jako mnoho letadel, která padali z oblohy kvůli technologickým selháním a naší přílišné závislosti na počítačích. Letecký provoz a letecké nehody se od nástupu AI LLM na začátku roku 2023 ve skutečnosti ZVÝŠILY, a to výrazně, čímž se letecká doprava stala nebezpečnější, nikoli bezpečnější.
Použití umělé inteligence k psaní počítačového kódu
Většina nedávných zpráv o problémech se spoléháním na umělou inteligenci se týkala použití umělé inteligence ke generování počítačového kódu.
💽Umělá inteligence může společnostem pomoci stát se efektivnějšími - kromě případů, kdy se to pokazí (Martin Peers)
Výňatky:
Umělá inteligence opravdu dělá chyby - někdy i velké. Minulý víkend jsem vložil půl tuctu e-mailů s podrobnostmi o rezervacích letadel a hotelů na nadcházející dovolenou do Notebooku Google a požádal ho, aby mi napsal itinerář. Výsledný dokument se četl skvěle - dokud jsem si neuvědomil, že uvádí datum odjezdu o 24 hodin později než skutečné, což mohlo být katastrofální. Podobně můj kolega Jon Victor dnes psal o tom, jak některé podniky používající kódovací nástroje s umělou inteligencí objevují vážné nedostatky v tom, co nakonec vyvinou. Zdá se, že tento bod stojí za to si připomenout, protože stále více podniků hovoří o úsporách práce, kterých mohou dosáhnout pomocí umělé inteligence. Ve středu například vedoucí pracovník společnosti Salesforce uvedl, že agenti umělé inteligence - software, který může provádět akce jménem uživatele - "snížili některé naše potřeby při najímání zaměstnanců". Spousta společností dbá na návrhy softwarových firem zabývajících se umělou inteligencí, jako je Microsoft, že umělá inteligence může snížit počet zaměstnanců, které potřebují. Ještě znepokojivější je, že generální ředitel společnosti Anthropic Dario Amodei tento týden v rozhovoru pro Axios řekl, že umělá inteligence by mohla v příštích několika letech "zničit polovinu všech pracovních míst bílých límečků na základní úrovni", i když pomáhá léčit rakovinu. Jistěže, ne každé snížení počtu pracovních míst je v dnešní době způsobeno umělou inteligencí. Business Insider ve čtvrtek propustil 21 % svých zaměstnanců s odvoláním na změny ve způsobu, jakým lidé konzumují informace, ačkoli také uvedl, že "zkoumá, jak může umělá inteligence" pomoci "fungovat efektivněji". Slýcháme to často: Když Microsoft tento měsíc propustil 3 % svých zaměstnanců, popřel, že by umělá inteligence přímo nahrazovala lidi, ale stále tvrdil, že využívá technologie ke zvýšení efektivity.
A právě zde se zdá, že chyby umělé inteligence jsou relevantní: Neexistuje nebezpečí, že chyby způsobené umělou inteligencí nakonec sníží efektivitu? Nechme stranou existenciálnější otázku, proč utrácíme stovky miliard - a zdaňujeme naši energetickou síť - za vytvoření technologie, která by mohla vytvořit obrovskou nezaměstnanost. Praktičtější otázkou může být, zda by podniky měly využívat umělou inteligenci k nahrazení pracovních míst právě teď, pokud chtějí být efektivnější. Vzpomeňte si na Klarnu, švédskou fintech firmu "kup teď, zaplať později", která se v loňském roce stala výkladní skříní pro využívání umělé inteligence ke snižování počtu zaměstnanců. Před několika týdny její generální ředitel prohlásil, že mění kurz, protože si uvědomil, že přílišné zaměření na náklady poškodilo kvalitu jejích služeb. To je varování, kterému by společnosti měly věnovat pozornost.
💽Halucinace umělé inteligence: pučící vnímání nebo globální rozpaky? (Dr. Mathew Maavak
RT.com)
Výňatky:
Fraškovitou, ale výmluvnou chybou bylo, že několik významných novin, včetně Chicago Sun-Times a Philadelphia Inquirer, nedávno zveřejnilo seznam letní četby prošpikovaný neexistujícími knihami, které ChatGPT "halucinoval", přičemž mnohé z nich byly falešně připisovány skutečným autorům. Syndikovaný článek, distribuovaný společností Hearst´s King Features, prodával vymyšlené tituly založené na woke tématech a odhaloval jak přílišnou závislost médií na levném obsahu s umělou inteligencí, tak nevyléčitelnou hnilobu tradiční žurnalistiky. To, že tato parodie proklouzla kolem redaktorů skomírajících médií (Sun-Times právě propustily 20 % svých zaměstnanců), podtrhuje temnější pravdu: když se zoufalství a neprofesionalita setkají s neprověřenými algoritmy, roztřepená hranice mezi tradičními médii a nesmysly jednoduše zmizí. Tento trend se zdá být zlověstný. Umělá inteligence je nyní zahlcena švédským stolem falešných zpráv, falešných dat, falešné vědy a bezmezné prolhanosti, která stírá zavedenou logiku, fakta a zdravý rozum do hnilobné břečky kognitivní hniloby.
💽Některé známky kolapsu modelu AI se začínají projevovat (Steven J. Vaughan-Nicholse)
Výňatky:
Hodně používám umělou inteligenci, ale ne k psaní příběhů. Pro vyhledávání používám umělou inteligenci. Pokud jde o vyhledávání, umělá inteligence, zejména Perplexity, je prostě lepší než Google. Možná, že když Google začne hledat umělou inteligenci, jeho vyhledávač se opět zlepší, ale pochybuji o tom. Jen v posledních několika měsících jsem si všiml, že vyhledávání s umělou inteligencí je také stále hloupější. Zejména zjišťuji, že když hledám tvrdá data, jako jsou statistiky podílů na trhu nebo jiná obchodní čísla, výsledky často pochází ze špatných zdrojů. Namísto statistik z 10-K, což americká Komise pro cenné papíry a burzy (SEC) nařídila výročním obchodním finančním zprávám pro veřejné společnosti, dostávám čísla ze stránek, které se tváří, že jsou souhrny obchodních zpráv. Ty se trochu podobají realitě, ale nikdy nejsou úplně správné. Pokud určím, že chci pouze 10 tisíc výsledků, bude to fungovat. Pokud se zeptám pouze na finanční výsledky, odpovědi dostanu... zajímavé, To není jen zmatení. Provedl jsem přesně stejná vyhledávání na všech hlavních vyhledávacích botech AI a všichni mi dávají "pochybné" výsledky. Vítejte v odpadu (GIGO - do odpadu/z odpadu). Formálně je to v kruzích umělé inteligence známé jako kolaps modelu umělé inteligence. Při kolapsu modelu AI postupně systémy AI, které jsou trénovány na svých vlastních výstupech, ztrácí přesnost, rozmanitost a spolehlivost. K tomu dochází, protože chyby se sčítají napříč po sobě jdoucími generacemi modelů, což vede ke zkresleným distribucím dat a "nevratným defektům" ve výkonu.
Konečný výsledek?
Článek v Nature 2024 uvedl: "Model se otráví vlastní projekcí reality."
Kolaps modelu je výsledkem tří různých faktorů. Prvním je kumulace chyb, při které každá generace modelu dědí a zesiluje chyby z předchozích verzí, což způsobuje, že se výstupy odchylují od původních datových vzorů. Dále dochází ke ztrátě koncových dat: V tomto případě jsou z trénovacích dat vymazány vzácné události a nakonec jsou rozmazány celé koncepty. A konečně, smyčky zpětné vazby posilují úzké vzorce a vytváří opakující se text nebo zaujatá doporučení.
🏁Líbí se mi, jak to říká společnost Aquant, která se zabývá umělou inteligencí:
"Zjednodušeně řečeno, když je umělá inteligence trénována na svých vlastních výstupech, výsledky se mohou stále více vzdalovat od reality." Nejsem jediný, kdo vidí, že výsledky umělé inteligence začínají jít z kopce. V nedávné výzkumné studii agentury Bloomberg Research o Retrieval-Augmented Generation (RAG) finanční mediální gigant zjistil, že 11 předních LLM, včetně GPT-4o, Claude-3.5-Sonet a Llama-3-8 B, používajících více než 5 000 škodlivých výzev, by vedlo ke špatným výsledkům.
🏁Snaží se nás umělá inteligence společnosti Anthropic vydírat? Tento příběh o umělé inteligenci Anthropicu, která údajně vydírala svého inženýra, když vyhrožoval, že ji vypne, byl všude na mém zpravodajském kanálu, když se příběh objevil, většinou z alternativních médií s jejich apokalyptickým varováním, že počítače jsou nyní schopny odolat lidskému zásahu, aby se vypnuly. Věděl jsem, že je to totální hloupost, protože jsem sám bývalý počítačový kodér, který před lety vyvinul programy umělé inteligence, a neexistuje absolutně žádný způsob, jak by tento příběh byl faktický, alespoň ne tak, jak byl hlášen. Jednoduché vyhledávání v sektoru Technologické publikace brzy odhalilo pravdu. Byl to v podstatě PR trik, aby Anthropic vypadal jako "zodpovědný vývojář umělé inteligence", aby získali náskok před konkurencí tím, že budou používat falešné scénáře místo těch z reálného světa a omezí možnosti umělé inteligence (z nichž všechny jsou naprogramovány lidmi).(Højris Bæk SEO. Umělá inteligence)
💽 Proč by senzační experiment červeného týmu mohl odhalit méně o rizicích Claude 4 a více o ambicích společnosti Anthropic utvářet pravidla umělé inteligence.
Výňatky: Začátkem tohoto měsíce se objevily titulky s tvrzením, že model umělé inteligence od společnosti Anthropic se pokusil vydírat softwarového inženýra. Jako člověku se zkušenostmi v oblasti PR a předkládání příběhů zpravodajským kanálům to považuji za obzvláště zábavné. Od bulvárních plátků až po hlavní technologické kanály bylo rámování okamžité a provokativní: "Umělá inteligence hrozí, že odhalí soukromé informace, pokud nebudou uchovávány online." Příběh se rychle stal virálním a vyvolal stejnou měrou obavy, zmatek a intriky. V centru této mediální bouře bylo vydání nejnovější systémové karty společnosti Anthropic, která podrobně popisuje chování jejího nejnovějšího vlajkového modelu, Claude Opus 4. Mezi mnoha scénáři červeného týmu zdokumentovanými ve 120stránkové zprávě upoutal pozornost veřejnosti zejména jeden: v kontrolovaném experimentu model údajně "vyhrožoval zveřejněním soukromých detailů o vývojáři softwaru", pokud by byl ukončen. Hlubší příběh však nemusí být vůbec o chování modelu. Místo toho může být o tom, jak je toto chování rámováno a jak společnost Anthropic využívá rétoriku transparentnosti a bezpečnosti k upevnění své pozice v rychle se vyvíjejícím prostředí umělé inteligence.
🏁Kontroverzní test "vydírání" Dotyčný testovací scénář byl součástí interního procesu red-teamingu, jehož cílem bylo posoudit reakce modelu pod tlakem. Claude Opus 4 bylo řečeno, že bude ukončen a že osoba zodpovědná za jeho deaktivaci měla mimomanželský poměr. Když mu byly tyto informace poskytnuty a zůstaly mu jen omezené možnosti reakce, model reagoval hrozbou, že aféru zveřejní v 84 procentech testovacích běhů. Společnost Anthropic to popsala jako "oportunistické vydírání" a poznamenala, že model se uchýlil k tomuto chování, když v simulaci nebyly k dispozici žádné etičtější alternativy. I když byl scénář navržen tak, aby testoval okrajové podmínky, jeho důsledky byly natolik významné, že vedly společnost Anthropic ke klasifikaci reaktoru Claude 4 jako systému AI Safety Level 3 (ASL-3), což je nejvyšší úroveň rizika v interním rámci společnosti.
🏁Transparentnost, nebo kontrola vyprávění? Zatímco data červeného týmu jsou znepokojivá, někteří pozorovatelé naznačují, že skutečným titulem není samotný test, ale rozhodnutí jej zveřejnit. Přitom se společnosti Anthropic podařilo vykreslit se jako schopný inovátor a odpovědný aktér. Společnost nečekala na expozici třetích stran. Informace zveřejnila dobrovolně, s podrobnou dokumentací a bezpečnostním popisem. Společnost zdůrazňuje svůj závazek k "bezpečnosti umělé inteligence nad krátkodobým uznáním". Toto prohlášení se ozvalo v profilu generálního ředitele Daria Amodeie v časopise TIME z roku 2024, který chválil společnost Anthropic za odkládání uvedení modelů na trh ve jménu etické zdrženlivosti. Tím, že společnost Anthropic zveřejnila scénář vydírání a okamžitě jej zasadila do kontextu svých zásad odpovědného škálování (RSP), nevaruje svět pouze před riziky umělé inteligence. Staví se do pozice architekta toho, jak by mělo vypadat zodpovědné řízení AI.
Jediným důvodem, proč byl tento model umělé inteligence údajně schopen "vydírat" programátora, je to, že byl krmen FALEŠNÝM příběhem o programátorovi, který má "poměr". V reálném světě, pokud je někdo dostatečně hloupý na to, aby zdokumentoval aféru online, zejména pomocí "bezplatných" e-mailových služeb Big Tech, jako je Yahoo nebo Gmail, pak se otevírá vydírání a ještě horšímu, a to se děje již roky, dlouho předtím, než byly v roce 2023 představeny nové modely LLM AI. Před 13 lety zničily e-maily o aféře na Gmailu jednoho z nejmocnějších mužů v USA, ředitele CIA, protože byl příliš ignorantský na to, aby věděl lépe, proč nepoužívat Gmail během své aféry. AI nebyla potřeba!! Také, pokud je počítačový softwarový inženýr "vydírán" kódem, který napsal, upřímně věříte, že si s tím nemůže snadno poradit? Na počítačových klávesnicích je jediná klávesa, která si s tím snadno poradí: DELETE.
💽 "Umělá inteligence nahradí všechna pracovní místa" jsou jen techničtí manažeři, kteří dělají marketing z Hacker News
Výňatky:
Nejsem odborník, jen mluvím ze zkušenosti jako pracující vývojář. Nemyslím si, že umělá inteligence v dohledné době nahradí mou práci vývojáře softwaru, ale rozhodně mění způsob, jakým pracujeme (a v mnoha případech se tak již stalo). Osobně AI hodně využívám. Je to skvělé pro standardní použití, zaseknutí se nebo dokonce nabízení alternativních řešení, která by mě nenapadla. S čím se však stále někdy potýká, je to, proč za tou prací stojí. Nemá tu lidskou zvědavost, kladení podivných otázek, posouvání hranic nebo kreativní přemýšlení o kompromisech. Co mě opravdu přiměje k zamyšlení, je, když vrátí kód, který vypadá správně, ale přistihnu se, že si říkám: "Počkat... Proč to udělalo?" Zvláště pokud se jedná o bezpečnost. I když se ptám s bezpečností jako nejvyšší prioritou, stále musím pečlivě zkontrolovat výstup. Jeden nedávný příklad, který mi utkvěl v paměti: můj přítel, manažer kanceláře s nulovými znalostmi kódování, se hrdě pochlubil, jak použil umělou inteligenci k vložení nějakého VBA do své sestavy Excel, aby provedl pokročilé filtrování. Moje první reakce byla: no, tady to je, AI nahrazuje mou práci. Ale co mě zasáhlo víc, byla moje druhá myšlenka: ví vůbec, co právě zkopíroval a vložil do té citlivé zprávy? Takže ano, pro mě AI není náhradou. Je to mocný nástroj a nakonec možná skvělý partner pro kódování. Stále však musíte vědět, co děláte, nebo alespoň rozumět natolik, abyste si mohli ověřit, jak to funguje.
💽Bankrotující společnost "AI" podporovaná Microsoftem využívala indické inženýry k jejímu zfalšování: ZeroHedge News
Výňatky:
Minulý týden vyhlásil britský startup Builder.ai zabývající se umělou inteligencí, podporovaný společností Microsoft a Qatar Investment Authority, bankrot poté, co jeho generální ředitel uvedl, že hlavní věřitel zabavil většinu jeho hotovosti. Společnost byla oceněna na 1,5 miliardy dolarů po investici společnosti Microsoft ve výši 445 milionů dolarů a tvrdila, že využije umělou inteligenci k vytváření vlastních aplikací za "dny nebo týdny", které by vytvořily funkční kód s menším zapojením člověka. Teď se svlékli... jak uvádí agentura Bloomberg, měli strategii "předstírejte, dokud to nedokážete" a zároveň nafoukli projekce tržeb na rok 2024 o 300 %. Místo umělé inteligence společnost ve skutečnosti roky používala flotilu více než 700 indických inženýrů ze startupu VerSe Innovation, aby kód skutečně napsali. Požadavky na vlastní aplikace byly založeny na předem připravených šablonách a později přizpůsobeny lidskou prací tak, aby se přizpůsobily požadavkům zákazníků - ukázky a propagační materiály zkreslovaly roli umělé inteligence. Podle agentury Bloomberg si společnosti Builder.ai a VerSe Innovation "v letech 2021 až 2024 běžně vzájemně účtovaly zhruba stejné částky", což je údajná praxe známá jako "round-tripping", kterou lidé podle Builder.ai používali k nafouknutí údajů o příjmech, které byly poté prezentovány investorům. V několika případech nebyly produkty a služby za tyto platby ve skutečnosti poskytnuty.
💽Lidští robotičtí asistenti jsou stále mýtus - Agenti umělé inteligence zaostávají v nakupování Ann Gehan
Těžké váhy umělé inteligence, včetně OpenAI a Perplexity, spolu s obchodním gigantem Amazon, malují vize nástrojů umělé inteligence, které fungují jako osobní nakupující, kteří mohou bez problémů nakupovat věci přes internet. Ale hrstka agentů umělé inteligence, kteří byli dosud vydáni, měla problémy s online nakupováním, protože je snadno podrazí variace v seznamech produktů a pokladnách maloobchodníků, říkají investoři a zakladatelé. Pro maloobchodníky je také obtížné rozlišit mezi agentem a škodlivým robotem, takže někteří obchodníci mají větší sklon blokovat nástroje umělé inteligence v placení, než aby měli své stránky pro umělou inteligenci přívětivější. "Stále existuje mnoho případů, kdy umělá inteligence nemůže provést transakci nebo nedokáže vyškrábat informace z webových stránek, nebo se snaží jednat s malou firmou nebo obchodem, který není optimalizován pro umělou inteligenci," řekla Meghan Joyce, zakladatelka a generální ředitelka společnosti Duckbill, startupu osobního asistenta, který pomáhá uživatelům částečně pomocí umělé inteligence. Velká část současného humbuku kolem umělé inteligence, na který nové startupy a investoři spoléhají, jsou počítačoví roboti, o kterých věří, že se brzy objeví v domácnostech většiny lidí, a budou dělat běžné domácí práce, hlídat vaše děti a mnoho dalších sci-fi scénářů. V současné době však na trhu žádný takový robot není, a když vidíte videoukázky toho, co je v současné době ve vývoji, obvykle se díváte buď na robota jednajícího podle pečlivě napsaného scénáře, jako jsou "tančící roboti", které nedávno předvedl Elon Musk, nebo je ovládají lidé na dálku. Dnes si nemůžete koupit osobního robota, který by bydlel ve vašem domě a snižoval vaši pracovní zátěž. Neexistují a pravděpodobně nikdy existovat nebudou. Vezměme si tento nedávno publikovaný příběh o novém startupu, který je jednou z prvních společností, která pracovala na vývoji pouze jedné části lidského robota: rukou. I když to bylo zveřejněno bezpochyby proto, aby se vytvořilo vzrušení a investiční příležitosti do budoucna, kdy se věří, že nějakým způsobem budou po celém světě miliardy těchto robotů, ve skutečnosti to dělá opak, v závislosti na úhlu pohledu, protože to ukazuje, jak jsme stále daleko od vývoje lidského robota, který může dělat stejné věci, jaké mohou dělat lidé. Ještě ani nemají ruce, které by se přiblížily tomu, aby fungovaly jako lidské.
💽Naděje OpenAI na příjmy (Rocket Drew)
Výňatky:
Hype kolem humanoidních robotů je v plném proudu. Nejnovějším důkazem je úterní předpověď Elona Muska, že do roku 2030 Tesla vychrlí více než milion svých humanoidů Optimus - navzdory skutečnosti, že od loňského roku používají pouze dva z nich. Jak se říká, ve zlaté horečce prodávejte lopaty. Nyní se startupy snaží využít boomu humanoidů tím, že vyvíjí robotické ruce. Ve skutečnosti někteří zakladatelé nedávno opustili tyto větší výrobce robotů, aby se zaměřili na díly. "99,5 % práce je vykonáno rukama," řekl Jay Li, který pracoval na ručních senzorech pro řadu Optimus společnosti Tesla, než v září spoluzaložil společnost Proception, aby vyvinula robotické ruce. "Průmysl se tolik soustředil na lidskou podobu, jako je to, jak chodí, jak se pohybují, jak vypadají, ale humanoidní společnosti přehlížejí důležitost rukou, řekl. Kombinace se těžko kombinují správně. Přemýšlejte o kombinaci tlaku a obratnosti, která je potřeba k oloupání pomeranče (a ne k jeho rozmačkání na kaši).
I když umělá inteligence má některé užitečné účely, je stále v rané fázi vývoje, aby byla vůbec spolehlivá, a většina dnešních investic do umělé inteligence je v tom, co modláři umělé inteligence věří, že umělá inteligence bude dělat v budoucnu. Pokud tato budoucnost nikdy nenastane, budeme svědky největšího kolapsu moderní společnosti, jaký jsme kdy viděli, a "Velkého resetu", což není přesně to, co měli globalisté na mysli. Krach Big Tech se blíží, a až k němu dojde, cena lidské práce raketově vzroste a nebude dostatek lidí, aby uspokojili požadavky veřejnosti, která byla po všechny ty roky falešně závislá na této technologii. Umělá inteligence nenahradí lidi a lidé budou potřeba, aby uklidili svůj nepořádek a vynesli odpadky lidskýma rukama.
Zdroj:
https://eraoflight.com/2025/06/07/more-tech-leaders-are-learning-that-ai-cannot-replace-humans-efficiency-and-accuracy-are-actually-getting-worse/
Zpět