7170
Problém: umělá inteligence není inteligentní = systémové riziko Charles Hugh Smith
[ Ezoterika ] 2024-08-14
Mimikry inteligence nejsou inteligencí, a tak i když je mimikry umělé inteligence mocným nástrojem, není inteligentní. Mytologie technologie má zvláštní oltář pro umělou inteligenci, která je uctivě uctívána jako zdroj ohromujícího snížení nákladů (lidská práce nahrazená AI) a neomezené expanze spotřeby a zisků. Umělá inteligence je blaženou dokonalostí přirozeného pokroku technologie ke stále větším mocnostem. Panuje shoda na tom, že pokrok umělé inteligence povede k utopii v podstatě neomezené kontroly nad přírodou a rohu hojnosti volného času a hojnosti. Pokud poodhrneme oponu mytologie, zjistíme, že umělá inteligence napodobuje lidskou inteligenci a tyto mimikry jsou tak fascinující, že je považujeme za důkaz skutečné inteligence. Ale mimikry inteligence nejsou inteligencí, a tak i když je mimikry umělé inteligence mocným nástrojem, není inteligentní. Současné iterace generativní umělé inteligence - velkých jazykových modelů (LLM) a strojového učení - napodobují naši schopnost přirozeného jazyka tím, že zpracovávají miliony příkladů lidského psaní a řeči a extrahují, jaké algoritmy jsou nejlepší odpovědi na dotazy.
Programy umělé inteligence nerozumí kontextu ani významu předmětu; Těží z lidských znalostí, aby vydestilovali odpověď. To je potenciálně užitečné, ale ne inteligence. Programy umělé inteligence mají omezenou schopnost rozlišovat pravdu od lži, a proto mají sklon halucinovat fikce jako fakta. Nejsou schopni rozlišit rozdíl mezi statistickými variacemi a fatálními chybami a vrstvení preventivních opatření přidává další složitost, která se stává dalším bodem selhání.
Pokud jde o strojové učení, umělá inteligence může navrhovat přijatelná řešení výpočetně náročných problémů, jako je například to, jak se skládají proteiny, ale tato výpočetní černá skříňka hrubou silou je neprůhledná, a proto má omezenou hodnotu: program ve skutečnosti nerozumí skládání proteinů tak, jak ho chápou lidé, a my nechápeme, jak program dospěl ke svému řešení.
Vzhledem k tomu, že umělá inteligence ve skutečnosti nerozumí kontextu, je omezena na možnosti zakotvené v jejím programování a algoritmech. Tato omezení rozpoznáváme u aplikací a robotů založených na umělé inteligenci, kteří nemají žádné povědomí o skutečném problému. Například naše připojení k internetu nefunguje nikoli kvůli poškozené aktualizaci systému, ale protože tato možnost nebyla zahrnuta do vesmíru problémů k řešení aplikace. Aplikace/bot AI poslušně hlásí, že systém funguje perfektně, i když je rozbitý. (příklad z reálného života.)
V podstatě každá vrstva tohoto dolování/napodobování vytváří další body selhání: neschopnost identifikovat rozdíl mezi skutečností a fikcí, nebo mezi přípustnou chybovostí a fatálními chybami, přidaná složitost preventivních opatření a neprůhlednost černé skříňky, to vše generuje riziko normálních nehod, které kaskádovitě přecházejí v selhání systémů.
Existuje také systémové riziko generované spoléháním se na černou skříňku umělé inteligence při provozu systémů do té míry, že lidé ztrácejí schopnost tyto systémy upravovat, nebo přestavovat. Toto přílišné spoléhání se na programy umělé inteligence vytváří riziko kaskádového selhání nejen digitálních systémů, ale i infrastruktury reálného světa, která je nyní na digitálních systémech závislá.
Závislost na řešení pomocí umělé inteligence má ještě zhoubnější důsledek. Stejně jako návyková povaha mobilních telefonů, sociálních médií a internetového obsahu narušila naši schopnost soustředit se a naučit obtížnou látku - zničující pokles učení u dětí a dospívajících - umělá inteligence nabízí hojnost faktoidů, úryvků kódování, počítačově generovaných televizních reklam, článků a celých knih, které již nevyžadují, abychom měli jakékoli hluboké znalosti o předmětech a procesech. Bez tohoto porozumění již nejsme vybaveni k tomu, abychom se věnovali skeptickému zkoumání, nebo vytvářeli obsah či kódování od nuly.
Náročný proces získávání těchto znalostí se nyní skutečně zdá být zbytečný: robot s umělou inteligencí dokáže všechno, rychle, levně a přesně. To vytváří dva problémy:
1) pokud selžou programy umělé inteligence z černých skříněk, už nevíme dost na to, abychom diagnostikovali a opravili selhání, nebo abychom udělali práci sami, a
2) ztratili jsme schopnost pochopit, že v mnoha případech neexistuje žádná odpověď, nebo řešení, které by bylo posledním slovem: "odpověď" vyžaduje interpretaci faktů, Události, procesy a znalostní báze jsou ze své podstaty nejednoznačné.
Už si neuvědomujeme, že odpověď umělé inteligence na dotaz není sama o sobě faktem, ale interpretací reality, která je prezentována jako fakt, a řešení pomocí umělé inteligence je pouze jednou z mnoha cest, z nichž každá má své vnitřní kompromisy, které generují nepředvídatelné náklady a důsledky.
Rozeznat rozdíl mezi interpretací a domnělým faktem vyžaduje moře znalostí, které je široké i hluboké, a tím, že jsme ztratili elán a schopnost učit se obtížnou látku, ztratili jsme schopnost vůbec rozpoznat, co jsme ztratili: ti, kteří mají málo skutečných znalostí, postrádají základy potřebné k pochopení odpovědi umělé inteligence ve správném kontextu.
Čistým výsledkem je, že se stáváme méně schopnými a informovanými, slepými k rizikům způsobeným ztrátou naší kompetence, zatímco programy umělé inteligence zavádějí systémová rizika, která nemůžeme předvídat ani jim předcházet. Umělá inteligence snižuje kvalitu každého produktu a systému, protože mimikry negenerují definitivní odpovědi, řešení a vhledy, pouze vytvářejí iluzi definitivních odpovědí, řešení a vhledů, které si bláhově pleteme se skutečnou inteligencí.
Zatímco neofeudální korporátní stát jásá nad zisky, které lze sklízet z masového vybíjení lidské práce, těžba / mimikry lidského vědění má své meze. Spoléhat se na to, že programy umělé inteligence odstraní všechny fatální chyby, je samo o sobě fatální chybou, a tak lidé musí zůstat v rozhodovací smyčce (pozorovat, orientovat se, rozhodovat, jednat).
Jakmile se programy umělé inteligence zapojí do procesů bezpečnosti života, nebo zdravotní péče, je každý subjekt připojený k programu umělé inteligence vystaven neomezené (společné a nerozdílné) odpovědnosti v případě, že dojde k škodlivým, nebo fatálním chybám.
Pokud se zbavíme mytologie a nadsázky, zůstane nám další neofeudální struktura: bohatým budou sloužit lidé a my ostatní se budeme muset spolehnout na nekvalitní služby umělé inteligence náchylné k chybám bez možnosti postihu.
Propagátoři umělé inteligence očekávají, že generativní umělá inteligence bude sklízet biliony dolarů zisků z úspor nákladů a nových produktů / služeb. Tento příběh nemapuje reálný svět, ve kterém je každý softwarový nástroj umělé inteligence snadno kopírovatelný / distribuovatelný, a tak nebude možné chránit jakoukoli vzácnou hodnotu, která je základní dynamikou pro udržení cenové síly potřebné k dosažení nadměrných zisků.
Softwarové nástroje, které vlastní každý, pokud monopol neomezí distribuci, mají malou hodnotu a malá hodnota obsahu, který tyto nástroje automaticky generují: miliony písní, filmů, tiskových zpráv, esejů, výzkumných prací atd. generovaných umělou inteligencí zahltí jakékoli potenciální publikum, čímž se hodnota veškerého obsahu generovaného umělou inteligencí sníží na nulu.
Propagátoři tvrdí, že masové propouštění pracovních míst bude jako mávnutím kouzelného proutku kompenzováno celými novými průmyslovými odvětvími vytvořenými umělou inteligencí, což bude ozvěnou přechodu od zemědělské práce k pracovním místům v továrnách. Ale drak s umělou inteligencí sežere svůj vlastní ocas, protože vytváří málo pracovních míst, nebo zisků, které mohou být zdaněny, aby se zaplatilo lidem za to, že nepracují (univerzální základní příjem).
Snad nejzávažnějším omezením umělé inteligence je to, že neudělá nic pro to, aby zvrátila nejpalčivější problémy lidstva. Nemůže vyčistit Velký tichomořský odpadkový vír, ani omezit 450 milionů tun převážně nerecyklovaného plastu, který se vysype každý rok, ani zvrátit změnu klimatu, ani vyčistit nízko položené oběžné dráhy Země od tisíců vysokorychlostních kousků nebezpečného odpadu, ani přetvořit vysoce ziskovou ekonomiku skládek odpadu na udržitelný globální systém, ani eliminovat všechny zdroje toho, co nazývám Anti- Progress.
Pouze se tím přidají nové zdroje systémového rizika, plýtvání a neofeudálního využívání.
Zdroj:
https://eraoflight.com/2024/08/14/theres- just- one- problem- ai- isn´t- intelligent- and- that´s- a- systemic- risk/
Zpět