10282 A.I. vs. A.I. - Zkoumáme, jak je technologie používána proti sobě samé Evan Gorelick

[ Ezoterika ] 2025-07-29

Umělá inteligence neslouží jen k psaní esejí a vyhledávání na webu. Je to také zbraň. A na internetu to už používají jak dobří hoši, tak špatní hoši.

Přestupek:
Boti a algoritmy páchají velkou část světové kybernetické kriminality. Podvodníci je používají k vytváření deepfakes a phishingových podvodů. Chcete, aby malware ukradl něčí data? Chatbot může napsat kód. Boti také připravují dezinformace. Když na sebe Izrael a Írán minulý měsíc odpálily rakety, zaplavily také internet propagandou poháněnou umělou inteligencí.

Obhajoba:
Společnosti zabývající se kybernetickou bezpečností používají umělou inteligenci k zachycování škodlivého provozu a opravě zranitelností softwaru. Minulý týden společnost Google oznámila, že jeden z jejích botů našel chybu v kódu používaném miliardami počítačů, kterou chtěli kyberzločinci zneužít - pravděpodobně to bylo poprvé, co se umělé inteligenci něco takového podařilo. Kybernetická bezpečnost bývala pomalá a pracná. Lidští hackeři by vymysleli nové útoky a pak by bezpečnostní společnosti vylepšily svou obranu, aby je odrazily. Ale nyní se tato hra na kočku a myš pohybuje rychlostí umělé inteligence. A v sázce nemůže být více: podle údajů FBI a Mezinárodního měnového fondu se očekává, že kybernetická kriminalita bude do roku 2027 stát svět více než 23 bilionů dolarů ročně. To je více než roční ekonomický výkon Číny. Dnes vysvětlím, co příchod hackingu umělé inteligence znamená pro internet - a miliardy lidí, kteří ho každý den používají.

Obléhání
Nejnovějšími kybernetickými zločinci jsou roboti. Píší s bezchybnou gramatikou a kódem jako zkušení programátoři. Řeší během několika sekund problémy, které lidi trápí už léta. Škodlivé emaily bývaly plné překlepů a chyb, takže spamové filtry je mohly odhalit a zachytit. Tato strategie už nefunguje. S generativní umělou inteligencí může každý vytvořit gramatické podvody na míru. Od spuštění ChatGPT v listopadu 2022 se phishingové útoky zvýšily více než čtyřicetinásobně. Deepfakes, které napodobují fotografie, videa a zvuk skutečných lidí, vzrostly více než dvacetinásobně... Protože komerční chatboti mají mantinely, které zabraňují zneužití, bezohlední vývojáři vytvořili spin-offy pro kybernetickou kriminalitu.

Ale i běžné modely - ChatGPT, Claude, Gemini - lze snadno přechytračit, řekl Dennis Xu, analytik kybernetické bezpečnosti ve společnosti Gartner, která se zabývá výzkumem a poradenstvím v oblasti podnikání. "Pokud hacker nedokáže přimět chatbota, aby odpověděl na jeho škodlivé otázky, pak není příliš dobrý hacker," řekl mi. Společnost Google, která vyrábí Gemini, uvedla, že zločinci (často z Íránu, Číny, Ruska a Severní Koreje) používali její chatboty k vyhledávání obětí, vytváření malwaru a provádění útoků. Společnost OpenAI, která ChatGPT vyrábí, uvedla, že zločinci používali její chatboty k vytváření falešných osobností, šíření propagandy a psaní podvodů. "Pokud se podíváte na celý životní cyklus hackerského útoku, 90 procent z nich nyní provádí umělá inteligence," řekl Shane Sims, konzultant v oblasti kybernetické bezpečnosti.

Zvláštní je, že útoky nemusí být nutně chytřejší... Sandra Joyceová, která vede skupinu Google Threat Intelligence Group, mi řekla, že neviděla žádný "převratný incident, kdy by umělá inteligence udělala něco, co lidé dělat nemohou". Kybernetická kriminalita je však hra s čísly a umělá inteligence škálování usnadňuje. Udeřte dostatečně často, a některé zásahy musí uspět...

Pevnost
To, co dělá umělou inteligenci dobrou v útoku - hledání vzorců v hromadách dat - ji dělá dobrou i v obraně. Vejdete na jakoukoli velkou konferenci o kybernetické bezpečnosti a prakticky každý dodavatel představí nový produkt umělé inteligence. Algoritmy analyzují miliony síťových událostí za sekundu; Zachytí falešné uživatele a narušení bezpečnosti, které lidem trvá týdny, než si jich všimnou. Protože umělá inteligence je tak rychlá v útoku, pouhý člověk už nemůže hrát dobrou obranu. "Budou v přesile 1 000 ku 1," řekl Ami Luttwak, spoluzakladatel společnosti Wiz, která se zabývá kybernetickou bezpečností. Algoritmy existují již desítky let, ale lidé stále ručně kontrolují dodržování předpisů, hledají zranitelnosti a opravují kód. Nyní to kybernetické firmy všechno automatizují. To je to, co Google řekl, že jeho bot udělal. Další jsou na cestě. Microsoft uvedl, že jeho bot Security Copilot zrychlil inženýry o 30 procent a výrazně zpřesnil. Je tu však riziko: umělá inteligence stále dělá chyby, a když má větší výkon, chyby mohou být mnohem větší. Bot s dobrými úmysly se může pokusit zablokovat provoz před konkrétní hrozbou a místo toho zablokovat celou zemi...

Zdroj: https://www.bibliotecapleyades.net/ciencia4/ai60.htm

Zpět