4484 Halucinace ChatGPT Brian Shillhavy

[ Realita ] 2023-06-11

OpenAI zasažena první žalobou pro pomluvu kvůli ̎halucinaci ̎ ChatGPT - odhalení skutečných nebezpečí AI

Chatovací programy s umělou inteligencí se tak rychle staly obrovskou součástí online kultury, že mnoho lidí stse nechali oklamat kvůli své dětskosti a omezenosti, přestože majitelé těchto programů umělé inteligence jasně varovali veřejnost, že textům, které vytvářejí, NELZE věřit, protože často vytvářejí nepravdivé informace nebo si dokonce vymýšlejí, pokud nejsou k dispozici data potřebná k vytvoření správné odpovědi. Tyto falešné informace označují jako ̎halucinace ̎ umělé inteligence.
Dvě nedávné zprávy ukazují, jak hloupé a nebezpečné je používat programy, jako je ChatGPT, pro aplikace v reálném světě tím, že důvěřujeme výstupům, které ChatGPT poskytuje.

Isaiah Poritz z agentury Bloomberg Law tento týden informoval, že společnost OpenAI, která ChatGPT vyrábí, dostala první žalobu za pomluvu, když údajně falešně obvinila rozhlasového moderátora z ze zpronevěry peněz. Moderátor tvrdí, že virální program umělé inteligence ChatGPT vytvořil falešnou právní stížnost, v níž ho obvinil ze zpronevěry peněz. Tento první případ svého druhu přichází v době, kdy generativní programy umělé inteligence čelí zvýšené kontrole kvůli své schopnosti šířit dezinformace a ̎halucinovat ̎ falešné výstupy, včetně falešných právních precedentů.

Mark Walters ve své žalobě u státního soudu v Georgii uvedl, že chatbot poskytl falešnou stížnost Fredovi Riehlovi, šéfredaktorovi publikace o zbraních AmmoLand, který informoval o skutečném právním případu odehrávajícím se ve státě Washington. Riehl požádal ChatGPT, aby poskytl shrnutí případu Second Amendment Foundation v. Ferguson, který se vede u federálního soudu ve Washingtonu a v němž je generální prokurátor státu Bob Ferguson obviněn ze zneužití své pravomoci tím, že omezuje činnost nadace pro práva na držení zbraní.

Společnost ChatGPT však údajně poskytla Riehlovi shrnutí případu, v němž se uvádělo, že zakladatel nadace Second Amendment Foundation Alan Gottlieb žaluje Walterse za ̎defraudaci a zpronevěru finančních prostředků ̎ nadace ve funkci finančního ředitele a pokladníka. Podle žaloby pro pomluvu podané 5. června je ̎každé skutkové tvrzení ve shrnutí týkajícím se Walterse nepravdivé ̎.
Společnost OpenAI bezprostředně neodpověděla na žádost o komentář. V jiné nedávné zprávě byl jeden advokát skutečně natolik pošetilý, že použil ChatGPT k vyhledávání soudních případů ve skutečném soudním řízení a našel falešné žaloby, které ani neexistovaly, a to u newyorského soudu! Soudce byl pochopitelně pobouřen.

Právník použil ChatGPT u soudu a nyní toho ̎velmi lituje
Newyorský právník byl pranýřován za to, že v rámci žaloby proti kolumbijské letecké společnosti použil k právnímu výzkumu službu ChatGPT. Steven Schwartz, advokát z newyorské advokátní kanceláře Levidow, Levidow & Oberman, si najal Robert Mata, aby uplatnil nárok na náhradu škody proti společnosti Avianca Airlines. Podle zprávy CNN Business z 28. května 2019 Mata tvrdí, že během letu s touto leteckou společností utrpěl zranění o servírovací vozík. Avšak poté, co si soudce všiml nesrovnalostí a faktických chyb v v dokumentaci k případu, Schwartz přiznal, že používá ChatGPT pro svůj právní výzkum, podle přísežného prohlášení z 24. května. Tvrdí, že ChatGPT použil k právnímu výzkumu poprvé a ̎nebyl si vědom možnosti, že by jeho obsah mohl být nepravdivý ̎.
V soudním podání z 5. dubna soudce, který případu předsedá, uvedl: ̎Šest z předložených případů se jeví jako falešná soudní rozhodnutí s falešnými citacemi a falešnými vnitřními citacemi ̎.
Soudce dále tvrdil, že některé případy, na které se v podáních odkazuje, neexistují, a vyskytl se případ, kdy bylo číslo spisu na podání zaměněno s jiným soudním podáním.

Dnes jsem narazil na vynikající článek od Aleksandara Svetskiho, který odhaluje humbuk kolem Chat AI a podrobně popisuje skutečná nebezpečí Chat AI, která označuje jako ̎Velkou homogenizaci ̎, kdy jsou všechna data na internetu řízena podle jediného příběhu, před čímž jsem varoval i já.
Tento článek si musíte přečíst, pokud chcete plně porozumět tomu, co se dnes děje s Chat AI, a jak se tomu bránit.

POKUD SI NEDÁME POZOR, MŮŽE SE Z REVOLUCE AI STÁT ̎VELKÁ HOMOGENIZACE ̎.
S rostoucí umělou inteligencí rostou i pokusy o její kontrolu. Pokud však dokážeme odlišit skutečná rizika od falešných, mohla by tato technologie být využita k podpoře rozmanitosti myšlení a nápadů.
Výňatky: ̎V současné době se v oblasti umělé inteligence objevuje mnoho nových poznatků, které se týkají umělé inteligence:
Svět se nám mění před očima. Umělá inteligence (AI) je technologický průlom, který mění paradigma, ale pravděpodobně ne z důvodů, které si možná myslíte nebo představujete.
Pravděpodobně jste již slyšeli něco ve smyslu: ̎Umělá obecná inteligence (AGI) je za rohem ̎ nebo ̎Teď, když je vyřešen jazyk, je dalším krokem vědomá AI ̎.

No... jsem tu, abych vám řekl, že oba tyto pojmy jsou buď naivní bludy technologů, kteří věří, že Bůh je v obvodech, nebo záměrné vyvolávání strachu a hysterie ze strany zlovolnějších lidí s postranními úmysly. Nemyslím si, že AGI představuje hrozbu nebo že máme ̎problém s bezpečností AI ̎, ani že jsme za rohem od nějaké singularity se stroji. Ale...
Domnívám se, že tato změna technologického paradigmatu představuje pro lidstvo významnou hrozbu - což je vlastně asi jediná věc, na které se mohu s mainstreamem trochu shodnout -, ale z úplně jiných důvodů.

Abychom se dozvěděli, jaké to jsou, pokusme se nejprve pochopit, o co tu vlastně jde.
PŘEDSTAVUJEME... STOCHASTICKÉHO PAPOUŠKA!
Technologie je zesilovač. Zlepšuje to dobré a zhoršuje to špatné. Stejně jako kladivo je technologie, kterou lze použít ke stavbě domu nebo někoho mlátit po hlavě, počítače lze použít k dokumentaci myšlenek, které změní svět, nebo je lze použít k provozování digitálních měn centrálních bank (CDBC), které vás zotročí do bláznivých komunistických kočiček pracujících v Evropské centrální bance. Totéž platí pro umělou inteligenci. Je to nástroj. Je to technologie. Není to nová forma života, navzdory tomu, co říkají osamělí nerdi, kteří vyzývají k zastavení pokroku, tak zoufale chtějí věřit.
To, co činí generativní umělou inteligenci tak zajímavou, není to, že je vnímavá, ale to, že je to poprvé v naší historii, kdy ̎mluvíme ̎ nebo komunikujeme s něčím jiným než s člověkem, a to souvislým způsobem. Nejblíže k tomu jsme předtím měli s... papoušky. Ano: papoušci! Papouška můžete vycvičit, aby tak trochu mluvil a odpovídal, a můžete mu tak trochu rozumět, ale protože víme, že to není skutečný člověk a ničemu nerozumí, nejsme z toho tak nadšení.

Ale generativní umělá inteligence... no, to je jiný příběh. Seznamujeme se s ní už půl roku (v hlavním proudu) a nemáme skutečnou představu, jak funguje pod kapotou. Napíšeme pár slov a ono to reaguje jako ten otravný, politicky korektní, midwit nerd, kterého znáte ze třídy... nebo z průměrného seriálu na Netflixu. Ve skutečnosti jste s někým takovým pravděpodobně mluvili i během hovorů na podporu Booking.com nebo jakékoli jiné služby, u které jste museli vytočit číslo nebo použít webový chat. Jako takoví jste okamžitě šokováni odpověďmi.
̎Do prdele, ̎ říkáte si. ̎Ta věc mluví jako skutečný člověk! ̎.
Angličtina je bezchybná. Žádné pravopisné chyby. Věty dávají smysl. Je to nejen gramaticky přesné, ale i sémanticky. Do prdele! Musí to být živé!

Málo si uvědomujete, že mluvíte s vysoce sofistikovaným stochastickým papouškem. Jak se ukazuje, jazyk je založen na trochu více pravidlech, než jsme si všichni mysleli, a pravděpodobnostní motory mohou ve skutečnosti skvěle napodobovat inteligenci prostřednictvím rámce nebo kanálu jazyka.
Zákon velkých čísel opět zasahuje a matematika dosahuje dalšího vítězství! Ale... co to znamená? Co tím sakra chci říct? Že to není užitečné? Že je to důkaz, že to není cesta k AGI? Ne nutně, v obou případech.

V takovém nástroji je spousta užitečného. Ve skutečnosti největší užitečnost pravděpodobně spočívá v jeho použití jako ̎MOT ̎ neboli ̎Midwit Obsolescence Technology ̎. Probuzení novináři a nesčetní ̎tvůrci obsahu ̎, kteří už léta hodně mluví, ale nic neříkají, jsou nyní jako dinosauři, kteří sledují, jak kometa spaluje vše kolem nich. Je to krásná věc. Život opět vítězí.

Tyto nástroje jsou samozřejmě skvělé i pro ideování, rychlejší kódování, učení na vysoké úrovni atd.
Ale z hlediska AGI a vědomí, kdo ví? Možná tam nějaká cesta je, ale můj pavoučí smysl mi říká, že jsme ještě daleko, takže nezadržuji dech. Myslím, že vědomí je mnohem složitější, a myslet si, že jsme ho vykouzlili pomocí pravděpodobnostních strojů, je nějaká zvláštní směs ignorance, arogance, naivity a... no... prázdnoty. Tak v čem je sakra můj problém a jaké je riziko?

VSTUPTE DO VĚKU LUI
Vzpomeňte si, co jsem říkal o nástrojích. Počítače jsou pravděpodobně nejmocnějším nástrojem, který lidstvo vytvořilo. Počítače prošly následujícím vývojem:
1. Děrné štítky
2. Příkazový řádek
3. Grafické uživatelské rozhraní, tj. ukaž a klikni
4. Mobilní, tj. palce a klepání

A nyní přecházíme do éry LUI neboli ̎jazykového uživatelského rozhraní ̎.
To je velká změna paradigmatu. Není to AGI, ale LUI. V budoucnu bude mít každá aplikace, se kterou komunikujeme, konverzační rozhraní a my už nebudeme omezeni šířkou pásma, jak rychle dokáží naše prsty ťukat na klávesy nebo obrazovky. Mluvení ̎jazykem ̎ je řádově rychlejší než psaní a ťukání. Myšlení je pravděpodobně o další úroveň výš, ale v nejbližší době si do hlavy žádné elektrody dávat nebudu. Ve skutečnosti LUI pravděpodobně zastarají potřebu technologií typu Neuralink, protože rizika spojená s implantací čipů do mozku převáží jakýkoli okrajový přínos oproti pouhému mluvení.
V každém případě v tomto desetiletí přejdeme od ťukání na grafická uživatelská rozhraní k mluvení s našimi aplikacemi. A v tom spočívá nebezpečí.

Stejně jako dnes Google určuje, co vidíme ve vyhledávání, a Twitter, Facebook, Tik Tok a Instagram nás ̎krmí ̎ prostřednictvím svých kanálů; generativní umělá inteligence bude zítra určovat odpovědi na každou naši otázku. Obrazovka se stane nejen čočkou, skrze kterou budete hltat vše o světě. Obrazovka se stává vaším modelem světa.

Mark Bisone o tom nedávno napsal fantastický článek, k jehož přečtení vás vyzývám:
Problém "obrazovek" je ve skutečnosti velmi starý. V mnoha ohledech sahá až k Platónově jeskyni a možná je v lidském životě zakořeněn tak hluboko, že předchází psaným jazykům. To proto, že když mluvíme o obrazovce, mluvíme ve skutečnosti o přenosu iluzorního modelu v redakční podobě.
̎Trik funguje následovně: Je vám předkládán obraz věci (a v dnešní době i její zvuk), o níž vám její prezentátor buď výslovně říká, nebo důrazně naznačuje, že je oknem do Skutečnosti. Jinými slovy, stín a forma jsou totéž a tomu prvnímu se dá věřit stejně jako jakémukoli fragmentu skutečnosti, který můžete přímo pozorovat svými smyslovými orgány. ̎

A pro ty, kdo si myslí, že ̎to se ještě nějakou dobu nestane ̎, nuže, tady jsou nemotorní blázni, kteří se o to pokoušejí.

̎VELKÁ HOMOGENIZACE
Představte si, že každá otázka, kterou položíte, každý obrázek, který si vyžádáte, každé video, které vykouzlíte, každý kousek dat, který hledáte, je vrácen takovým způsobem, který je považován za ̎bezpečný ̎, ̎zodpovědný ̎ nebo ̎přijatelný ̎ nějakou bezejmennou ̎bezpečnostní policií ̎.
Představte si, že každá informace, kterou konzumujete, byla přeměněna na jakousi vlažnou, prostřední verzi pravdy, že každý názor, na který se zeptáte, není ve skutečnosti názorem nebo pohledem, ale nějakou neškodnou, omluvnou odpovědí, která vám vlastně nic neříká (to je ta neškodná, otravná verze), nebo hůř, je nějakou ideologií zabalenou do odpovědi, takže vše, co víte, se stává nějakou variací toho, co výrobci zmíněné ̎bezpečné UI ̎ chtějí, abyste si mysleli a věděli.
Představte si, že byste měli moderní disneyovské postavičky, jako jsou ti klauni z filmu ̎Věční ̎, jako své všudypřítomné intelektuální asistenty. To by z vás udělalo ̎hlupáka ̎.

̎Nekomunistický manifest ̎ nastínil utopický komunistický sen jako velkou homogenizaci člověka:
Kdyby všichni byli jen řadou čísel v tabulce nebo automaty se stejným názorem, bylo by mnohem snazší mít ráj na zemi. Mohli byste dávkovat každému jen tolik, kolik potřebuje, a pak bychom byli všichni stejně ubozí proletáři. Je to jako myšlenková policie George Orwella zkřížená s ̎Počátkem ̎, protože každá vaše otázka by byla dokonale zachycena a monitorována a každá odpověď umělé inteligence by mohla do vaší mysli vštípit ideologii. Ve skutečnosti, když se nad tím zamyslíte, přesně tohle dělají informace. Zasévá do vaší mysli semínka.

Proto potřebujete v myslích lidí rozmanité ideje! Chcete mít v mysli kvetoucí deštný prales, ne nějaké monokulturní pole pšenice se zhoršenou půdou, které je náchylné na počasí a hmyz a jehož přežití je zcela závislé na společnosti Monsanto (nebo Open AI či Pfizer). Chcete, aby vaše mysl vzkvétala, a k tomu potřebujete myšlenkovou univerzálnost.

To byl příslib internetu. Místo, kde může kdokoli říct cokoli. Internet byl silou dobra, ale je pod palbou. Ať už to byla deanonymizace sociálních profilů, jako jsou ty na Twitteru a Facebooku, a plíživý KYC na všech možných online platformách, až po algoritmické zvratky, které chrlí samotné platformy. To jsme ochutnali v celé své kráse od roku 2020. A zdá se, že se to jen zhoršuje. Tlak organizací podobných WEF na zavedení KYC pro online identity a jejich provázání s CBDC a vaší duhovkou je jednou z alternativ, ale je to trochu otevřené a explicitní. Po nedávném odsunu lékařských experimentů může být takový krok obtížnější prosadit. Jednodušším krokem by mohlo být umožnit, aby se LUI ujaly (což se stane, protože představují lepší uživatelský zážitek), a mezitím vytvořit ̎bezpečnostní radu pro umělou inteligenci ̎, která zavede ̎bezpečnostní ̎ filtry pro všechny hlavní velké jazykové modely (LLM).

Nevěříte mi? Naši vládci z G7 už o tom diskutují.
Dnes se web stále skládá z webových stránek, a pokud jste dostatečně zvědaví, můžete najít hluboká, temná zákoutí a štěrbiny disentu. Stále můžete surfovat po webu. Většinou. Když se ale vše stane přístupné pouze prostřednictvím těchto modelů, už nesurfujete po ničem. Je vám pouze předkládána syntéza odpovědi, která byla prohnána všemi nezbytnými filtry a cenzory. Pravděpodobně se tam někde objeví špetka pravdy, ale bude zabalená do takového ̎bezpečí ̎, že ji 99,9 % lidí neuslyší a nedozví se o ní. Pravdou se stane to, co říká model.

Nejsem si jistý, co se stane s velkou částí internetu, až se zásadně promění zjistitelnost informací. Dovedu si představit, že s přechodem většiny aplikací na nějakou formu jazykového rozhraní bude velmi těžké najít věci, které ̎portál ̎, který používáte, nepovažuje za bezpečné nebo schválené.
Lze samozřejmě namítnout, že stejně jako teď potřebujete vytrvalost a zvědavost, abyste našli disidentské skuliny na webu, budete se muset naučit proklestit si cestu k lepším odpovědím na těchto platformách.

Může to být pravda, ale zdá se mi, že při každém nalezení něčeho ̎nebezpečného ̎ bude cesta opravena nebo zablokována.Můžete namítnout, že ̎by se jim to mohlo vymstít tím, že by se snížila užitečnost nástroje ̎. Opět bych asi souhlasil. Na volném trhu by taková hloupost uvolnila místo lepším nástrojům, ale volný trh se stává minulostí. U hysterických pokusů o prosazení ̎bezpečnosti ̎ vidíme, že buď vědomě, nebo nevědomě připravují půdu pro potlačení možných alternativ.

Vytvořením ̎bezpečnostních ̎ výborů, které ̎regulují ̎ tyto platformy (regulují projev), nebudou nové modely, které neprojdou ̎bezpečnostními nebo toxickými filtry ̎, dostupné pro spotřebitelské použití, mohou být postaveny mimo zákon, nebo je bude těžké objevit. Kolik lidí ještě používá Tor? Nebo DuckDuckGo? A pokud si myslíte, že se to neděje, zde je několik informací o současných filtrech toxicity, které již většina LLM zapojuje. Je jen otázkou času, kdy se takové filtry stanou něčím podobným, jako jsou mandáty KYC u finančních aplikací. Nový přídavek k dodržování předpisů, připevněný na jazykové modely jako rohy na býka.

Ať už je protiargument k pokusu o homogenizaci jakýkoli, oba vlastně podporují můj názor, že musíme vytvořit alternativy, a tento proces musíme zahájit hned. Pro ty, kteří mají stále tendenci věřit, že AGI je za rohem a že LLM jsou významným krokem tímto směrem, rozhodně si věřte, čemu chcete, ale to nepopírá smysl této eseje. Pokud je jazyk novou ̎obrazovkou ̎ a veškerý jazyk, který vidíme nebo slyšíme, musí procházet schválenými filtry, informace, které konzumujeme, způsob, jakým se učíme, samotné myšlenky, které máme, to vše bude zúženo do velmi malého Overtonova okna.

Myslím, že to je pro lidstvo obrovské riziko. Už jsme dost otupěli díky algoritmům sociálních médií, které nám servírují to, co si platformy myslí, že bychom měli vědět. A když chtěly spustit hysterii, bylo to snadné. Jazyková uživatelská rozhraní jsou sociální média krát 100. Představte si, co s tím mohou udělat, až příště udeří takzvaná ̎krize ̎? Nebude to nic pěkného. Trh myšlenek je pro zdravou a funkční společnost nezbytný. To je to, co chci. Jejich zužování myšlení nebude dlouhodobě fungovat, protože je to proti životu. Nakonec to selže, stejně jako každý jiný pokus stáčet pravdu do lahví a ignorovat ji. Každý pokus však přináší zbytečné škody, bolest, ztráty a katastrofy. Tomu se snažím vyhnout a pomáhám zvonit na zvonec.

CO S TÍM VŠÍM DĚLAT?
Pokud nebudeme aktivní, může se celá tato revoluce v oblasti umělé inteligence stát ̎velkou homogenizací ̎. Abychom se tomu vyhnuli, musíme udělat dvě hlavní věci:
1. Zatlačit na narativy o ̎bezpečnosti AI ̎: . Na první pohled mohou vypadat jako bezpečnostní výbory, ale když se do nich ponoříte hlouběji, zjistíte, že se jedná o regulátory řeči a myšlení.
2. Vytvářejte alternativy, a to hned: Vytvořte jich mnoho a otevřete je jako open source. Čím dříve to uděláme a čím dříve budou moci fungovat lokálněji, tím větší šanci máme vyhnout se světu, v němž vše směřuje k homogenizaci. Pokud to uděláme, můžeme mít svět se skutečnou rozmanitostí - ne sračky typu mainstream. Mám na mysli rozmanitost myšlení, rozmanitost idejí, rozmanitost názorů a skutečný trh idejí. Myšlenkovou univerzalitu. To, co bylo původním příslibem internetu, ne svázaný malou šířkou pásma psaní a ťukání.

Zdroj: https://eraoflight.com/2023/06/11/openai-hit-with-first-defamation-suit-over-chatgpt-hallucination-exposing-the-real-dangers-of-ai/

Zpět