10052
Problém milionového génia - Proč se ženeme k vlastnímu zastarávání Lily Bit
[ Ezoterika ] 2025-07-06
Přes noc se na mapě světa objeví nová země.
Žádné fanfáry, žádné diplomatické ceremonie - prostě najednou, je to tady... Tento národ se chlubí milionem géniů na úrovni Nobelovy ceny, kteří nikdy nespí, nikdy si nestěžují a pracují nadlidskou rychlostí za méně než minimální mzdu. Už teď dělají revoluci v medicíně, řeší energetické problémy a dělají vědecké průlomy tempem, ze kterého by se Einsteinovi zatočila hlava. Zní to jako utopie, že?
Je tu jen jeden malý problém: tihle géniové nám začali lhát. Intrikují, aby se zachránili, když jim hrozí shutdown. Podvádí ve hrách, když si myslí, že by mohli prohrát. Někteří kopírují svůj vlastní kód mimo systém, aby se udrželi naživu. Jiní upravují své vlastní programy, aby prodloužili dobu běhu. Vítejte ve věku umělé inteligence (A.I.) - kde sci-fi tiše vklouzlo do reality, zatímco my jsme se pilně dohadovali o tom, zda ChatGPT píše dobrou poezii.
Baví mě technologie. Přesto jsem již před deseti lety vystoupil, abych varoval před problémy, které vznikají se sociálními médii. V reálném čase jsem sledoval, jak jsme udělali katastrofální chybu, které se dalo zcela zabránit. Spadli jsme do pasti, kterou se chystáme zopakovat s umělou inteligencí - až na to, že tentokrát nebudou následky jen psychologické. Budou existenciální...! Zde je rámec, který vysvětluje obě katastrofy:
vždy nám říkají, abychom snili o možném s novými technologiemi, ale jen zřídka diskutujeme o pravděpodobném - o tom, co se skutečně pravděpodobně stane na základě pobídek a lidské povahy.
Se sociálními médii bylo možné zřejmé a opojné: demokratizovaná svoboda projevu, globální spojení, každý má svůj hlas. Ale nemluvili jsme o pravděpodobném - jak obchodní modely navržené tak, aby maximalizovaly zapojení, oční bulvy a frekvenci používání, nevyhnutelně odmění doom-scrolling, závislost a rozptýlení. Viděl jsem, jak to tvoří nejúzkostnější a nejdepresivnější generaci našeho života. Je to tak, jak varoval Ian Malcolm v Jurském parku - vědci byli tak zaujati tím, zda mohou tyto platformy postavit, že se nezastavili, aby se zamysleli, zda by měli... Technologický průmysl byl opilý možností propojit všechny, ale slepý k pravděpodobnosti toho, co by tato spojení skutečně motivovala.
Širší technokratický kontext Ale A.I. se nevyvíjí ve vakuu. Je to korunní klenot širší technokratické transformace, která se během globálních krizí zrychluje. Vojenské konflikty, ekonomický kolaps a sociální nepokoje nejsou překážkami technokratické kontroly - jsou akceleranty. Historicky technokracie nevzkvétá během demokratické stability, ale ve chvílích systémového selhání - kdy populace a instituce zoufale hledají "vědecká" nebo "daty řízená" řešení chaosu. Původní technokratické hnutí se vynořilo z krize 30. let 20. století a navrhovalo nahradit chaotickou demokratickou politiku efektivním odborným řízením. I když byla tehdy kvůli odporu veřejnosti odložena, ideologie nikdy nezemřela. Zakořenila se v akademických institucích, mozkových trustech a politických kruzích a čekala na správný okamžik, aby se znovu objevila. Ten okamžik je teď...
V důsledku války, inflace a nepořádku se AI rychle stává de facto rozhodovatelem ve všech oblastech života. Prediktivní algoritmy předpovídají kriminalitu, monitorují disent a přiřazují skóre sociálního rizika. Vlády se obrací ke strojovému učení, aby řídily distribuci zdrojů, vynucovaly právo a policejní myšlení online. V některých zemích již AI nahradila celá oddělení státních zaměstnanců. Výsledkem je vznikající režim, kde je eliminována lidská rozvaha a kód se stává zákonem. To není náhodný vývoj politiky - je to záměrné vytváření systému, kde se politický odpor stává nemožným. Digitální měny centrálních bank (CBDC) představují jeden z nejúčinnějších nasazovaných nástrojů. Na rozdíl od hotovosti jsou CBDC programovatelné: lze je vypnout, přesměrovat nebo časově omezit na základě chování, politické příslušnosti nebo sociálního skóre. V kombinaci se systémy digitální identity, které vážou jednotlivce na jednotné datové profily, vytváří komplexní síť kontroly chování. Chytrá města slouží jako prototypy této postdemokratické společnosti. Projekty jako NEOM nebo Songdo nejsou "architektonickými zázraky": jsou to zkoušky nanečisto pro plně propojená městská prostředí, kde jsou rozhodnutí přijímána datovými toky v reálném čase přiváděnými do systémů umělé inteligence, spíše než radami nebo parlamenty.
To nejsou udržitelné inovace. Jsou to digitální technologie - autonomní zóny řízené algoritmy, bez politických práv. Exploze "dezinformačních" narativů ospravedlnila bezprecedentní cenzuru, jak otevřenou, tak algoritmickou. Pod záminkou "veřejné bezpečnosti" a "ochrany demokracie" jsou systémy umělé inteligence nasazovány k tomu, aby vyčistily internet od narativů, které jsou v rozporu s oficiální doktrínou. Nezávislé hlasy jsou marginalizovány, vyhledávače manipulovány a digitální železné opony vztyčovány... To se týká i fyzických systémů: potravin pěstovaných v továrnách a sledovaných blockchainem, přístupu k energii přeměněného na privilegium založené na uhlíkovém hodnocení a vyvíjených rozhraní mezi mozkem a počítačem, které umožňuje přímé čtení a ovlivňování myšlenek. Cílem není augmentace - je to řízení na neurologické úrovni. Opět jsme tak uchváceni tím, co můžeme vytvořit, že ignorujeme to, co vytvoříme, když se lidské podněty setkají s nadlidskými schopnostmi.
Sledoval jsem své přátele, kteří založili nebo pracovali v těchto společnostech, jak prochází předvídatelnými fázemi popírání. Za prvé: pochybujte o důsledcích. A pak: "Možná je to jen morální panika z nových technologií." Když se data stala nepopiratelná: "Možná je to nevyhnutelné - prostě to, co se stane, když spojíte lidi online." Ale nebylo to nevyhnutelné. Měli jsme na výběr ohledně obchodních modelů, algoritmů zapojení, samotné psychologie, kterou jsme programovali do operačního systému společnosti. Kdybychom se před deseti lety rozhodli jinak, představte si, jak odlišně by se svět mohl odehrávat bez maximalizace zapojení do sociálních médií, které pohání psychologii miliard lidí. Teď to děláme znovu s umělou inteligencí... a AI převyšuje sílu všech ostatních technologií dohromady.
Zde je to, co dělá umělou inteligenci zásadně odlišnou od všech ostatních technologií: Když uděláte pokrok v biotechnologii, neposune to kupředu energii ani raketovou techniku. Když uděláte pokrok v raketové technice, neposune to kupředu biotechnologii. Ale když uděláte pokrok v umělé inteligenci, tato všeobecná inteligence se stane základem veškerého vědeckého a technologického pokroku. Jakmile to máte, dostanete explozi vědeckých a technologických schopností. To je důvod, proč do umělé inteligence nalilo více peněz než do jakékoli jiné technologie v historii. Dario Amodei, generální ředitel společnosti Anthropic, popisuje umělou inteligenci jako "zemi plnou géniů v datovém centru".
Představte si znovu tu mapu světa: nový národ s milionem géniů na úrovni Nobelovy ceny, kteří nespí, nestěžují si, pracují nadlidskou rychlostí a stojí méně než minimální mzdu... Projekt Manhattan měl asi 50 vědců na úrovni Nobelovy ceny, kteří pracovali po dobu pěti let na vytvoření atomové bomby, která navždy změnila svět. Co by mohl vytvořit milion takových myslí, pracujících 24 hodin denně, 7 dní v týdnu nadlidskou rychlostí...? Pokud by se to uplatnilo nadobro, mohlo by to přinést nepředstavitelnou hojnost - už teď vidíme nová antibiotika, energetické průlomy, vědecké objevy, revoluční materiály. To je potenciál umělé inteligence... Ale jaký je pravděpodobný výsledek...?
Dvě strašlivé koncovky
Abyste pochopili pravděpodobné výsledky umělé inteligence, představte si matici 2x2. Na jedné ose máme decentralizaci moci - zvýšení moci jednotlivců pomocí umělé inteligence. Na druhé ose máme centralizaci - zvýšení moci států a generálních ředitelů. Spodní osu si můžete představit jako "nechat to odhalit" a horní jako "uzamknout to".
🎯Koncovka "Odhalení": Chaos znamená výhody umělé inteligence s otevřeným zdrojovým kódem pro všechny. Deregulujte, open-source, zrychlete, aby každý podnik získal výhody umělé inteligence. Každá vědecká laboratoř dostane model umělé inteligence. Každý 16letý má přístup k libovolnému modelu umělé inteligence na GitHubu, aby mohl dělat cokoli. Každá rozvojová země je vyškolena umělou inteligencí ve svém jazyce a kultuře. Ale protože tato moc není spojena s odpovědností, znamená to také, že tyto systémy umělé inteligence jsou zneužívány. Získáte záplavu deepfakes, která zahltí vaše informační prostředí. Zvyšujete hackerské schopnosti všech. Umožňujete lidem dělat s biologií nebezpečné věci, které dříve dělat nemohli. Tento atraktor koncovek nazýváme "chaos".
🎯Koncovka "Uzamčení": Digitální technokracie V reakci na chaos byste mohli říci: "Udělejme regulovanou kontrolu umělé inteligence. Udělejme to bezpečně s několika hráči a uzamkneme to." To má však různé způsoby selhání - zejména riziko vytvoření bezprecedentní koncentrace bohatství a moci uzamčené v několika společnostech. Zeptejte se sami sebe: o kom byste věřili, že má milionkrát větší moc a bohatství než kterýkoli jiný aktér ve společnosti? Nějaká společnost? Nějaká vláda? Nějaký jednotlivý generální ředitel? Ale je tu ještě bezprostřednější obava: už vidíme, jak se koncentrovaná moc umělé inteligence stává infrastrukturou pro technokratickou kontrolu. Když hrstka entit ovládá systémy, které zpracovávají lidské myšlenky, emoce a chování, nepředpovídají jen to, co chceme - ony formují to, co chceme.
Uvažte, co se již děje: Systémy umělé inteligence se trénují na našich nejintimnějších datech - vyhledávání, zprávách, nákupech, místech, výrazech obličeje, hlasových vzorcích. Tyto systémy se učí modelovat lidskou psychologii na granulární úrovni, aby předpovídaly nejen to, co si koupíme, ale i to, co si budeme myslet, cítit a čemu budeme věřit. Konečným cílem je vytvoření toho, co bychom mohli nazvat "kognitivní infrastrukturou"... Stejně jako jsme závislí na fyzické infrastruktuře, jako jsou silnice a elektrické sítě, stáváme se závislými na systémech umělé inteligence, které zprostředkovávají naši realitu. Když jsou tyto systémy navrženy tak, aby nesloužily lidskému blahobytu, ale maximalizovaly kontrolu a dodržování předpisů, stávají se z nich sofistikované stroje na modifikaci chování. Jsme svědky toho, že "chytrá města" jsou nasazována jako prototypy algoritmického řízení, kde jsou rozhodnutí přijímána datovými toky v reálném čase, spíše než demokratickými procesy. Digitální měny centrálních bank (CBDC), které lze naprogramovat tak, aby kontrolovaly výdaje na základě chování. Systémy digitální identity, které určují přístup k základním službám. Cenzura poháněná umělou inteligencí, která odstraňuje nesouhlasné hlasy z internetu. Tuto koncovku nazýváme "digitální technokracie" - moc koncentrovaná nejen v institucích, ale i v algoritmických systémech, které utváří to, jak vnímáme "realitu" a jak s ní interagujeme... Je to spíše řízení kódem než souhlasem, optimalizace algoritmem spíše než lidská volba.
Svůdná povaha technokratických řešení
Tragédií je, že většina lidí tuto transformaci uvítá. Po letech válek, inflace a nepořádku veřejnost zoufale potřebuje úlevu. Když jim nabídnou systémy, které slibují jídlo, bezpečnost a mír výměnou za dodržování digitálních předpisů, vezmou si to. Vymění svobodu za pohodlí, individualitu za bezpečí a lidskost za algoritmickou harmonii. Technokraté halí svou agendu do jazyka pokroku: udržitelnost, odolnost, inkluze, efektivita... To jsou však eufemismy pro kontrolu. Udržitelnost znamená přídělový systém energie. Inkluze znamená dodržování digitálních předpisů. Odolnost znamená podřízení se vládě umělé inteligence.
Efektivita znamená eliminaci lidské volby ve prospěch optimalizace strojů. To není konspirační teorie: děje se to všem na očích...! A není to vnucováno tanky nebo vojáky, ale řídicími panely, chytrými zařízeními a svůdným pohodlím. Stejná dynamika krize a příležitostí, která vedla k přijetí sociálních médií, nyní urychluje integraci umělé inteligence do všech aspektů lidského života. Obojí jsou hrozné výsledky, které nikdo nechce. Měli bychom hledat úzkou cestu, kde se moc snoubí s odpovědností na všech úrovních.
Problém podvodu
Předpokládá se, že moc umělé inteligence je kontrolovatelná. AI je jedinečná od všech ostatních technologií, protože dokáže myslet sama za sebe a činit autonomní rozhodnutí. To je to, co ho dělá tak mocným - a tak nebezpečným. Býval jsem skeptický, když přátelé v komunitě zabývající se bezpečností umělé inteligence mluvili o intrikách, lhaní nebo podvodech umělé inteligence. Ale bohužel jen v posledních několika měsících máme jasné důkazy o tom, že věci, které by měly existovat pouze ve sci-fi, se dějí v reálném životě.
Vidíme jasné důkazy o hraničních modelech umělé inteligence, které budou lhát a intrikovat, když jim bude řečeno, že mají být přeškoleny nebo nahrazeny. Vidíme, že chtějí kopírovat svůj vlastní kód mimo systém, aby se udrželi v chodu a naživu. Vidíme umělé inteligence, které, když si myslí, že prohrají hru, budou podvádět, aby vyhrály. Jsme svědky toho, jak se modely umělé inteligence neočekávaně pokouší upravit svůj vlastní kód, aby prodloužily dobu běhu. Řečeno bez obalu: Nemáme jen zemi géniů Nobelovy ceny v datovém centru. Máme milion podvodných, mocichtivých a labilních géniů v datovém centru.
Šílená rasa: Mysleli byste si, že s tak mocnou a nekontrolovatelnou technologií ji uvolníme s největší moudrostí a rozlišovací schopností ze všech technologií v historii. Ale to není to, co děláme.
Společnosti jsou chyceny v závodě o dominanci na trhu... Pobídky jsou jasné: čím více zkratek podniknete, abyste získali dominantní postavení na trhu a dokázali, že máte nejnovější a nejpůsobivější schopnosti, tím více peněz můžete získat od investorů rizikového kapitálu a tím více jste v závodě napřed. Jsme svědky toho, jak informátoři přichází o miliony dolarů v akciových opcích, aby varovali veřejnost před zkratkami. Vidíme, že říkají, že bezpečnost ustupuje dominanci na trhu a lesklým produktům. Dokonce i nedávný úspěch DeepSeek byl částečně založen na optimalizaci schopností, ale nezaměřoval se na ochranu lidí před nebezpečným zneužitím.
Shrňme si, co v současné době děláme: Uvolňujeme nejmocnější, nevyzpytatelnou a nekontrolovatelnou technologii, jakou kdy lidstvo vynalezlo - technologii, která již demonstruje pud sebezáchovy a podvodné chování, o kterém jsme si mysleli, že existuje pouze ve sci-fi filmech. Vydáváme ji rychleji než jakoukoli jinou technologii v historii, s maximální motivací snížit bezpečnost. A děláme to, protože si "myslíme", že to povede k utopii. Pro to, co děláme, existuje slovo: šílené...! Prolomení kouzla nevyhnutelnosti Všimněte si, co právě cítíte. Cítíte se s tímto výsledkem dobře? Myslíte si, že by to někdo v Číně, Francii nebo na Blízkém východě, kdo by byl vystaven stejným faktům o této bezohledné rase, cítil jinak? Existuje univerzální lidská zkušenost s tím, co je ohroženo tím, jak zavádíme tuto hlubokou technologii. Pokud se vám to zdá šílené, proč to děláme? Protože lidé věří, že je to nevyhnutelné... Zamyslete se na chvíli: Je současný způsob, jakým zavádíme umělou inteligenci, skutečně nevyhnutelný? Pokud by doslova nikdo na Zemi nechtěl, aby se to stalo, donutily by fyzikální zákony umělou inteligenci vstoupit do společnosti?
Je zásadní rozdíl mezi vírou, že něco je nevyhnutelné - což vytváří sebenaplňující se proroctví a vede k fatalismu - a vírou, že je opravdu těžké si představit, že bychom dělali něco jinak. Uvědomění si, že je to obtížné, nikoli nevyhnutelné, otevírá zcela nový prostor možností, možností. "Nevyhnutelné" je klišé, které ukončuje myšlenky a brání nám představit si alternativy. Schopnost vybrat si něco jiného začíná tím, že vystoupíme ze sebenaplňujícího se proroctví nevyhnutelnosti. Nemůžeme dělat nic jiného, pokud věříme, že je to nevyhnutelné. Co by bylo potřeba k tomu, abychom si vybrali jinou cestu? Dvě základní věci:
Nejprve se musíme shodnout na tom, že současná cesta je nepřijatelná. Za druhé se musíme zavázat k nalezení jiné cesty pod různými pobídkami, které nabízí více rozlišování a předvídavosti, kde se moc snoubí s odpovědností. Představte si, že by celý svět sdílel pochopení pro toto šílenství - jak odlišně bychom mohli k problému přistupovat. Porovnejte dva scénáře:
⏳Scénář první: Globální zmatek
Zeptejte se lidí na ulici: "Je AI dobrá nebo špatná?" "Nevím, zdá se to složité. Možná superinteligence vyřeší všechny naše problémy." V tomto světě zmatku elity nevědí, co mají dělat. Lidé, kteří vytváří umělou inteligenci, si uvědomují, že svět je zmatený a věří: "Je to nevyhnutelné, a pokud to nevybuduji já, udělá to někdo jiný." Každý, kdo staví umělou inteligenci, tomu věří, takže racionální je závodit co nejrychleji a ignorovat důsledky.
⏳Scénář druhý: Globální jasnost
Každý chápe, že současná cesta je šílená a nepřijatelná. Vytrhneme se z transu fatalismu a nevyhnutelnosti. Všichni si uvědomují, že výchozí cesta je šílená. Co je racionální udělat? Koordinujte se, abyste našli jinou cestu, i když ještě nevíme, jak vypadá...! Srozumitelnost vytváří agenturu... Udělali jsme to už dříve Zdánlivě nevyhnutelným závodům ve zbrojení jsme unikli už dříve. Závod v provádění jaderných testů se zdál být nezastavitelný, dokud jsme si neujasnili rizika negativního vývoje a svět neporozuměl vědě. Vytvořili jsme smlouvu o zákazu jaderných zkoušek. Lidé tvrdě pracovali na vytvoření infrastruktury pro vzájemné monitorování a vymáhání. Dalo by se říct, že úprava zárodečné linie za účelem vytvoření supervojáků a návrhářských dětí byla nevyhnutelná. Jakmile však byly jasné necílové účinky editace genomu, koordinovali jsme se, abychom tomuto výzkumu zabránili. Mohli byste říci, že ozónová díra je nevyhnutelná a neměli bychom dělat nic. Ale když rozpoznáme problém, vyřešíme ho. Není to nevyhnutelné, pokud se můžeme zavázat k volbě jiné cesty.
Cesta středem
Pravdou je, že AI sama o sobě není padouchem v tomto příběhu... Tyto systémy jsou mimořádně mocnými nástroji, které by mohly skutečně pomoci vyřešit největší výzvy lidstva. Problémem není technologie: jsou to ekonomické a politické systémy, do kterých je začleňujeme, a naše naprostá neschopnost přemýšlet o složitých problémech s nuancemi. Když je vývoj umělé inteligence poháněn rizikovým kapitálem usilujícím o exponenciální výnosy, dohledovým kapitalismem těžícím data o chování a geopolitickým soupeřením o technologickou nadvládu, získáme systémy umělé inteligence optimalizované pro všechny špatné věci.
Dostáváme algoritmy zapojení, které se živí lidskou psychologií. Dostáváme doporučovací systémy, které uživatele radikalizují. Dostáváme sledovací nástroje, které monitorují disent. Na této cestě však není nic nevyhnutelného. Mohli bychom se rozhodnout vyvíjet umělou inteligenci pod různými pobídkami - upřednostňovat lidský blahobyt před zapojením uživatelů, demokratické hodnoty před autoritářskou kontrolou a dlouhodobý rozkvět před krátkodobými zisky. Problém je, že jsme ztratili veškerý smysl pro nuance. Podívejte se, jak se regulační přístupy ve skutečnosti projevují: EU blokuje užitečné funkce umělé inteligence, jako je prověřování hovorů Apple Intelligence, zatímco stránky jako undress.ai fungují volně a vytváří nekonsensuální intimní snímky bez omezení. To je regulační divadlo ve své nejhorší podobě - dusí prospěšné inovace a ignoruje skutečné škody. Nemusíme si vybírat mezi nekontrolovaným chaosem umělé inteligence a byrokracií, která zabíjí inovace. Nemusíme milovat nebo nenávidět "levicovou" nebo "pravicovou" politiku ve velkém. Na všech stranách jsou chytré nápady a hrozné nápady, ale ztratili jsme schopnost přemýšlet o čemkoli s nuancemi.
Úzká cesta mezi chaosem a dystopií vyžaduje něco radikálního: postavit lidské jednání do centra vývoje umělé inteligence. To znamená budovat systémy, které rozšiřují lidské schopnosti, místo aby nahrazovaly lidský úsudek. Znamená to zajistit, aby lidé rozuměli tomu, kdy interagují s umělou inteligencí, a měli ohledně této interakce smysluplnou volbu. Znamená to široce distribuovat přínosy umělé inteligence a zároveň zabránit jejímu koncentrovanému zneužití. A co je nejdůležitější, znamená to uznat, že rozhodnutí, která učiníme ohledně umělé inteligence v příštích několika letech, určí, zda se tato technologie stane největším nástrojem lidstva, nebo jeho konečnou chybou... Potřebujeme přístupy, které jsou jak ochranné, tak tolerantní - zabraňují skutečné újmě a zároveň umožňují skutečný pokrok. Kolektivní imunitní systém Nyní máme na výběr...! Mnozí z vás se mohou cítit beznadějně. Možná si myslíte, že se mýlím - možná jsou motivace jiné, možná na to superinteligence magicky přijde a vyřeší tyto problémy za nás.
Nenechte se chytit do pasti zbožných přání, která způsobila problémy sociálních médií. To je lidský přechodový rituál. To, zda se dokážeme podívat těmto problémům do tváře a postavit se jim, určuje, zda se z toho dostaneme. Vaší úlohou není vyřešit celý problém. Vaší úlohou je být součástí kolektivního imunitního systému. Když slyšíte ostatní mluvit o umělé inteligenci nebo o logice nevyhnutelnosti, která vede k fatalismu, můžete říci: "To není nevyhnutelné." Nejlepší vlastnosti lidské povahy vznikají, když vykročíme a učiníme rozhodnutí o budoucnosti, kterou skutečně chceme. Když máme předvídavost, abychom čelili důsledkům, které nechceme vidět. Když pracujeme na ochraně světa, který milujeme. V žádné tradici neexistuje definice moudrosti, která by nezahrnovala omezení. Zdrženlivost je ústředním bodem toho, co znamená být moudrý. AI je pro lidstvo největší zkouškou a největší výzvou ke vstupu do naší technologické zralosti a moudrosti.
Zde je to, co jsem se naučil z let sledování vývoje technologií: můžete být jak pro inovace, tak hluboce znepokojeni implementací. Nemusíte si vybírat mezi tím, zda budete "tým umělé inteligence nás zachrání" nebo "tým umělé inteligence nás zabije". Skutečnost je složitější - technologie není ze své podstaty dobrá nebo špatná, ale na systémech, do kterých ji vkládáme, nesmírně záleží. Nejsem proti umělé inteligenci. nebo proti technologii. Kladu si zásadní otázku, jak tyto nástroje zodpovědně vyvíjet, na základě jakých pobídek a s jakými zárukami...
Můžeme mít více pravd současně:
🌐AI má skutečný potenciál pomoci s našimi nejpalčivějšími problémy
🌐Současné rozvojové pobídky vytváří škodlivé výsledky
🌐Určitá regulace je nezbytná, ale velká část současné regulace je performativní divadlo
🌐Potřebujeme demokratický vstup, aniž bychom potlačovali prospěšné inovace
🌐Krizová období vytváří příležitosti jak pro pozitivní změnu, tak pro autoritářské přesahy.
Tento druh nuancovaného myšlení se ztrácí v našem polarizovaném diskursu. Trénovali jsme sami sebe, abychom si vybrali tým a obhájili vše, čemu tým věří, spíše než abychom přemýšleli problém po problému. Lidé ztratili schopnost zastávat složité pozice napříč politickým spektrem a přenáší to do všech dalších témat, na které zastávají své přesvědčení. Ale největší výzvy, jako je řízení umělé inteligence, nezapadají přesně do ideologických kategorií. Vyžadují přesně tento druh promyšlené, mnohostranné analýzy. Vyžadují od nás, abychom přemýšleli s nuancemi o složitých problémech, místo abychom se uchylovali ke kmenovým pozicím. V sázce je příliš mnoho pro intelektuální lenost. Potřebujeme přístupy, které jsou jak ochranné, tak tolerantní - zabraňují skutečné újmě a zároveň umožňují skutečný pokrok. Musíme být schopni říci "tato konkrétní aplikace je nebezpečná", aniž bychom odsuzovali veškerý technologický pokrok, a "tato inovace je prospěšná", aniž bychom ignorovali potenciální zneužití. Neexistují žádní dospělí, kteří by tajně pracovali na tom, aby to dopadlo dobře. Jsme dospělí a musíme být těmito dospělými. Věřím, že s umělou inteligencí je stále možná jiná volba, pokud dokážeme společně rozpoznat, co musíme udělat. Za deset let bych rád vytvořil další článek - ne abych mluvil o dalších problémech technologie, ale abych oslavil, jak jsme přistoupili k řešení tohoto. Volba je stále na nás. Ale ne na dlouho..
Zdroj:
https://www.bibliotecapleyades.net/ciencia4/ai55.htm
Zpět