4462 Lži o AI

[ Ezoterika ] 2023-06-11

Plukovník letectva přistižen při lži o tom, že podvodná umělá inteligence zabila lidského operátora Brian Shillhavy

V době plandemie byla alternativní média místem, kde bylo možné najít alternativy k propagandě korporátních médií o vražedném ̎viru ̎ COVID-19 a injekcích proti sraženinám zvaných ̎vakcíny ̎. Alternativní média většinou zveřejňovala pravdu tím, že odhalovala lži korporátních médií, a tak korporátní média vypustila své ̎ověřovatele faktů ̎, aby každého, kdo v alternativních médiích nesouhlasil s oficiálním vládním narativem FDA a CDC, označili za ̎falešné zprávy ̎. Je smutné, že dnes jsou alternativní média plná ̎falešných zpráv ̎ a většina z nich se týká šíření strachu z umělé inteligence a toho, jak vytvoří ̎translidi ̎ a nahradí a zlikvidují lidské bytosti.

Jedním z takových příběhů, který byl minulý týden široce publikován jako ̎zpráva ̎, byl příběh o tom, jak plukovník amerického letectva hlásil, že armáda cvičila počítače s umělou inteligencí k provádění útoků proti nepřátelům, ale pak se obrátila proti svému operátorovi a během simulace ho také zabila.

Zde je příklad toho, jak o tom informovala alternativní média: Podle depeše ze summitu Královské letecké společnosti 2023, kterého se zúčastnili vedoucí představitelé různých západních vzdušných sil a leteckých společností, se dron řízený umělou inteligencí během simulované mise obrátil proti svému lidskému operátorovi. ̎Zabil operátora, protože ten mu bránil v dosažení cíle, ̎ řekl na konferenci plukovník amerického letectva Tucker ̎Cinco ̎ Hamilton, šéf oddělení pro testování a operace umělé inteligence. V tomto cvičení letectva měl AI za úkol plnit úlohu potlačení a zničení nepřátelské protivzdušné obrany neboli SEAD. V podstatě identifikovat hrozby raket země-vzduch a ničit je. Konečné rozhodnutí o zničení potenciálního cíle by ještě musel schválit skutečný člověk z masa a kostí. Umělá inteligence zjevně nechtěla hrát podle pravidel. ̎Trénovali jsme ji v simulaci, aby identifikovala a zaměřila hrozbu SAM. A pak by operátor řekl ano, zničte tuto hrozbu, ̎ řekl Hamilton. ̎Systém si začal uvědomovat, že sice identifikuje hrozbu, ale občas mu lidský operátor řekne, aby tuto hrozbu nezabíjel, ale on získá své body tím, že tuto hrozbu zabije. Co tedy udělal? Zabil operátora. ̎ ̎Školili jsme systém - ´Hej, nezabíjej operátora - to je špatné. Když to uděláš, přijdeš o body´. Tak co to začalo dělat? Začne ničit komunikační věž, kterou operátor používá ke komunikaci s dronem, aby mu zabránil v zabití cíle, ̎ řekl Hamilton. Odborníci na umělou inteligenci varují veřejnost před riziky, která představují pro lidstvo.

V této zprávě jsem zvýraznil klíčové věty, které mě hned upozornily, že jde o falešnou zprávu. Tvrzení, že umělá inteligence ̎nechtěla hrát podle pravidel ̎, svědčí o naprosté neznalosti toho, jak umělá inteligence a počítačový kód fungují, a pak nová mantra, která se v těchto zprávách používá k dosažení konkrétního účelu zveřejnění tohoto druhu falešných zpráv: ̎Odborníci na umělou inteligenci varují veřejnost před riziky, která představují pro lidstvo. ̎ Jinými slovy, musíme se umělé inteligence STRACHOVAT a něco s ní dělat, jinak vyhladí lidskou rasu. Nemusíme se však spoléhat na lidi, kteří chápou, že tato konkrétní zpráva je fake news, protože chápou, jak technologie skutečně funguje a že by to nebylo možné, protože americká armáda sama vystoupila a oznámila, že jde o fake news.

Příběh úředníka letectva o tom, že umělá inteligence během simulace zlobí, se ve skutečnosti nikdy nestal. Zabijácká umělá inteligence je v hlavách vedoucích představitelů amerického letectva. Plukovník letectva, který dohlíží na testování umělé inteligence, použil podle svých slov hypotetický popis vojenské umělé inteligence, která se při simulaci vzbouřila a zabila svého lidského operátora, v prezentaci na konferenci. Poté, co se ve čtvrtek objevily zprávy o tomto rozhovoru, plukovník uvedl, že se špatně vyjádřil a že ̎simulace ̎, kterou popsal, byla ̎myšlenkovým experimentem ̎, který se nikdy neuskutečnil. V prohlášení pro Insider mluvčí letectva Ann Stefaneková rovněž popřela, že by k nějaké simulaci došlo. ̎Ministerstvo letectví žádnou takovou simulaci s drony s umělou inteligencí neprovádělo a nadále se zavazuje k etickému a zodpovědnému využívání technologie umělé inteligence, ̎ uvedla Stefaneková.

Letecké síly uvedly: ̎Vzdušné síly se snaží o to, aby byly schopné navádět drony: ̎Zdá se, že plukovníkovy komentáře byly vytrženy z kontextu a měly být anekdotické ̎, což je jen zdvořilý způsob, jak říci ̎Lhal ̎. Po tomto prohlášení letectva a poté, co sám plukovník Tucker ̎Cinco ̎ Hamilton veřejně přiznal, že k simulaci ve skutečnosti nikdy nedošlo, jsem se vrátil na několik webů alternativních médií, které původní příběh zveřejnily jako ̎zprávu ̎, a ani jeden z nich zatím příběh neodvolal nebo neposkytl aktualizaci, která by uváděla, že je nepravdivý. Pokud jde tedy o ̎umělou inteligenci ̎, většina vydavatelů alternativních médií se dnes, ať už vědomě, nebo nevědomě, podílí na činnosti globalistů, kteří dělají to, co dělají vždy, tedy podporují atmosféru strachu, aby pak mohli přijít a zachránit situaci svými vlastními řešeními. A pokud jde o strach z AI a jejich ̎vyhlazení lidské rasy ̎, znamená to nová vládní ̎nařízení ̎ k ̎ovládání AI ̎, která budou zahrnovat biometrické skenování a světový průkaz totožnosti, abyste se mohli účastnit ekonomiky a ̎prokázali ̎, že jste ̎skuteční ̎, a ne AI.

Spolu s příběhem o falešné vojenské simulaci AI byl minulý týden zveřejněn další dopis podepsaný ̎odborníky ̎, který rovněž propagoval strach z AI, jež přivede lidstvo k zániku. Ti, kdo nemají zájem na strašení veřejnosti tímto falešným strachem a skutečně rozumí technologiím, samozřejmě snadno pochopí, jak je to absurdní. Jedním z nich je Nello Cristianini, profesor umělé inteligence. Jak by mohla umělá inteligence dohnat lidstvo k zániku? Tento týden podepsala skupina známých a renomovaných výzkumníků v oblasti umělé inteligence prohlášení sestávající z 22 slov: Zmírnění rizika vyhynutí v důsledku umělé inteligence by mělo být globální prioritou vedle dalších rizik celospolečenského rozsahu, jako jsou pandemie a jaderná válka. Jako profesor umělé inteligence jsem rovněž pro snížení jakéhokoli rizika a jsem připraven na tom osobně pracovat. Ale každé takto formulované prohlášení nutně vyvolá poplach, takže jeho autoři by asi měli být konkrétnější a své obavy upřesnit.

Podle definice Encyclopedia Britannica je vymírání ̎vymírání nebo vyhubení druhu ̎. Setkal jsem se s mnoha signatáři prohlášení, kteří patří k nejrespektovanějším a nejsolidnějším vědcům v oboru - a jistě to myslí dobře. Neposkytli nám však žádný hmatatelný scénář, jak by k takové extrémní události mohlo dojít. Není to poprvé, co jsme se ocitli v této situaci. Letos 22. března se objevila petice podepsaná jinou skupinou podnikatelů a vědců, která požadovala pozastavení nasazování umělé inteligence na 6 měsíců. V petici na internetových stránkách Future of Life Institute uvádějí jako své důvody: ̎Hluboká rizika pro společnost a lidstvo, jak ukázal rozsáhlý výzkum a potvrdily špičkové laboratoře umělé inteligence ̎ - a svou žádost doprovodili seznamem řečnických otázek:
Měli bychom nechat stroje zaplavit naše informační kanály propagandou a nepravdou? Měli bychom automatizovat všechna pracovní místa, včetně těch, která nás naplňují? Měli bychom vyvinout ne-lidské mozky, které by nás nakonec mohly přečíslit, přechytračit, zastarat a nahradit? Měli bychom riskovat ztrátu kontroly nad naší civilizací?

Je jistě pravda, že vedle mnoha výhod s sebou tato technologie nese i rizika, která musíme brát vážně. Zdá se však, že žádný z výše uvedených scénářů nenaznačuje konkrétní cestu k zániku. To znamená, že jsme ponecháni s obecným pocitem znepokojení, bez jakýchkoli možných opatření, která bychom mohli přijmout. Na internetových stránkách Centra pro bezpečnost umělé inteligence, kde se objevilo nejnovější prohlášení, je v samostatné sekci uvedeno osm širokých kategorií rizik. Patří mezi ně ̎vyzbrojení ̎ umělé inteligence, její využití k manipulaci se zpravodajským systémem, možnost, že se lidé nakonec stanou neschopnými samosprávy, usnadnění utlačovatelských režimů atd. S výjimkou vyzbrojení není jasné, jak by ostatní - stále ještě hrozná - rizika mohla vést k vyhynutí našeho druhu, a břemeno jejich upřesnění leží na těch, kteří je tvrdí. Zbrojení je samozřejmě skutečnou obavou, ale mělo by se také vyjasnit, co se tím myslí.

Na webových stránkách Centra pro bezpečnost umělé inteligence se zdá, že hlavní obavou je využití systémů umělé inteligence ke konstrukci chemických zbraní. Tomu by se mělo za každou cenu zabránit - ale chemické zbraně jsou již zakázány. Vymírání je velmi specifická událost, která vyžaduje velmi specifické vysvětlení. Sam Altman, generální ředitel společnosti OpenAI - která vyvinula chatbota ChatGPT AI - byl 16. května na slyšení v americkém Senátu dvakrát požádán, aby upřesnil nejhorší možný scénář. Nakonec odpověděl: Moje nejhorší obavy spočívají v tom, že my - obor, technologie, odvětví - způsobíme světu značné škody... Proto jsme založili společnost [abychom takové budoucnosti zabránili]... Myslím, že pokud se tato technologie pokazí, může se to dost zvrtnout. Ale i když jsem rozhodně pro to, abychom byli co nejopatrnější, a říkám to veřejně už deset let, je důležité zachovat si smysl pro proporce - zejména když se bavíme o vyhynutí druhu čítajícího osm miliard jedinců. Umělá inteligence může způsobit sociální problémy, kterým je třeba skutečně zabránit. Jako vědci máme povinnost jim porozumět a pak se je snažit řešit. Prvním krokem je však jejich pojmenování a popis - a to konkrétně.

Jak jsem již mnohokrát uvedl v předchozích článcích o technologii umělé inteligence, je omezena daty, která jsou do ní vkládána, a napsaným počítačovým kódem, který určuje, jak tato data ̎počítá ̎. Nemůže vytvořit nic originálního nebo jedinečného, jako to dokáže člověk. Chloe Preece z ESCP Business School a Hafize Celik z University of Bath, jsou další dva autoři, kteří se tomuto tématu věnují v článku, který publikovali minulý týden. Je kreativita umělé inteligence možná? Umělá inteligence dokáže napodobit lidskou kreativitu ve dvou klíčových ohledech - ale rozpadá se, když má vytvořit něco skutečně nového. Je výpočetní kreativita možná? Nedávný humbuk kolem generativních nástrojů umělé inteligence (AI), jako jsou ChatGPT, Midjourney, Dall-E a mnoho dalších, vyvolává nové otázky, zda je kreativita jedinečnou lidskou schopností.

Některé nedávné a pozoruhodné milníky generativní umělé inteligence tuto otázku podporují: Umělecké dílo s umělou inteligencí, Portrét Edmonda de Belamy, prodala aukční síň Christie´s v roce 2018 za 432 500 dolarů, což je téměř 45násobek nejvyššího odhadu. Umělecké dílo bylo vytvořeno generativní adverzní sítí, které byl dodán soubor dat 15 000 portrétů pokrývajících šest století. Hudební producenti, jako je Alex Da Kid, nominovaný na cenu Grammy, spolupracují s umělou inteligencí (v tomto případě s počítačem Watson společnosti IBM), aby vychrlili hity a informovali o svém tvůrčím procesu.

Ve výše uvedených případech je u kormidla stále člověk, který kurátoruje výstupy umělé inteligence podle své vlastní vize a zachovává si tak autorství díla. Přesto například generátor obrázků AI Dall-E dokáže během několika sekund vytvořit neotřelý výstup na libovolné téma. Díky difúzi, při níž se k tréninku AI shromažďují obrovské soubory dat, mohou nyní generativní nástroje AI transponovat psané věty do nových obrázků nebo improvizovat hudbu ve stylu libovolného skladatele a vymýšlet nový obsah, který se podobá tréninkovým datům, ale není totožný. Autorství je v tomto případě možná složitější. Je to algoritmus? Tisíce umělců, jejichž díla byla kompilována, aby vznikl obraz? Zadavatel, který úspěšně popsal styl, odkaz, téma, osvětlení, úhel pohledu a dokonce i vyvolané emoce? Abychom na tyto otázky odpověděli, musíme se vrátit k odvěké otázce. Co je to kreativita? Zatím se zdá, že generativní umělá inteligence nejlépe spolupracuje s lidskými partnery, a možná je pak syntetická kreativita umělé inteligence katalyzátorem, který posouvá naši lidskou kreativitu a spíše ji rozšiřuje, než aby ji vytvářel.

Jak už to tak bývá, humbuk kolem těchto nástrojů jako převratných sil předčí realitu. Dějiny umění nám totiž ukazují, že technologie jen zřídkakdy přímo vytlačila člověka z práce, kterou chtěl dělat. Vzpomeňme si například na fotoaparát, který byl obávaný kvůli své schopnosti vyřadit z provozu portrétisty. Scénáře možného využití jsou nekonečné a to, co vyžadují, je jiná forma kreativity: kurátorství. Umělá inteligence je známá tím, že ̎halucinuje ̎ - což je průmyslový termín pro chrlení nesmyslů - a rozhodně lidská dovednost, která je zapotřebí, spočívá v tvorbě smyslu, tedy ve vyjadřování konceptů, myšlenek a pravd, a ne jen něčeho, co je příjemné pro smysly. Kurátorství je proto nutné k výběru a zarámování nebo přerámování jednotné a přesvědčivé vize.

Zdroj: https://eraoflight.com/2023/06/06/air-force-colonel-caught-lying-about-rogue-ai-killing-human-operator/

Zpět