12307
Trump nařizuje zastavení "probuzení" antropické technologie ve všech federálních agenturách Tyler Durden
[ Ezoterika ] 2026-02-28
Trump nařídil KAŽDÉ federální agentuře ve vládě Spojených států, aby OKAMŽITĚ PŘESTALA používat technologii společnosti Anthropic, a na Truth Social napsal: "Nepotřebujeme ji, nechceme ji a už s ní nebudeme obchodovat."
Podle Trumpa:
• Pro agentury, které již používají produkty Anthropic bude platit šestiměsíční období postupného vyřazování
• Pokud Anthropic během přechodného období nebude ´užitečný´, Trump podá civilní a trestní obvinění
Ministr obrany Pete Hegseth dal společnosti Anthropic čas do pátku do 17:00, aby umožnil Pentagonu používat chatbot Claude bez omezení a v rámci zákonných limitů. Znamená to, že budou označeni jako riziko dodavatelského řetězce?
Trumpovo rozhodnutí šokovalo Silicon Valley, kde technologické firmy investovaly miliardy dolarů do umělé inteligence a zvažují, jak nejlépe řešit federální vládní zakázky. Tento krok míří na společnost, která vede vývoj AI, což je ústřední bod Trumpovy ekonomické agendy. Sázky jsou pro Anthropic obrovské, protože jeho hodnota je 380 miliard dolarů a souhlasil s prací v hodnotě asi 200 milionů dolarů pro armádu. Je to také riziko pro vládu, protože Anthropic byl až donedávna jediným AI systémem, který mohl fungovat v utajovaném cloudu Pentagonu. Claude Gov je oblíbenou volbou mezi obranným personálem kvůli snadnému použití. -Bloomberg
* * *
S termínem pro Anthropic militarizovat AI Claude pro Pentagon do hry vstoupil generální ředitel OpenAI Sam Altman - ve čtvrtek večer řekl zaměstnancům, že jeho společnost spolupracuje s Ministerstvem války, aby zjistila, zda lze jejich modely použít v utajovaných prostředích způsobem, který zachová stejné bezpečnostní zábrany, které brzy Anthropic vyhodí z Pentagonu.
"Uvidíme, zda bude dohoda s ministerstvem, která umožní nasazení našich modelů v utajovaných prostředích a která odpovídá našim zásadám," napsal Altman ve čtvrteční večerní poznámce zaměstnancům, kterou zveřejnil Wall Street Journal. "Požádali bychom, aby smlouva pokrývala jakékoli použití kromě těch, které jsou nezákonné nebo nevhodné pro nasazení v cloudu, jako je domácí sledování a autonomní útočné zbraně."
Altman říká, že chce "pomoci deeskalovat situaci", tedy - chtějí být ti, kdo jsou hluboce zakořeněni v nejcitlivějších systémech Pentagonu.
Červené linie
Altman říká, že OpenAI chápe postoj vlády, že soukromá společnost by neměla mít kontrolu nad významnými otázkami národní bezpečnosti [smích v Palantiru], ale říká, že mají stejné problémy jako Antropic, pokud jde o případy použití. "Dlouho jsme věřili, že AI by neměla být používána pro masové sledování nebo autonomní smrtící zbraně a že lidé by měli zůstat v obraze pro vysoce riziková automatizovaná rozhodnutí. To jsou naše hlavní červené linie," napsal Altman. "Domníváme se, že tento spor není o tom, jak bude AI použita, ale o kontrole. Věříme, že soukromá americká společnost nemůže být mocnější než demokraticky zvolená vláda USA, i když firmy mohou mít velký vliv a vstup. Demokracie je chaotická záležitost, ale jsme jí odhodláni."
Altmanovy komentáře přichází v době, kdy situace pro Anthropic nevypadá dobře. Ve čtvrtek večer generální ředitel Dario Amodei oznámil, že společnost odmítla požadavky Ministerstva války, aby zpřístupnila svou technologii "pro všechny zákonné účely", což znamená žádné masové domácí sledování ani autonomní zbraně. Přesto Emil Michael z Pentagonu - který údajně jako soukromý občan chtěl utratit milion dolarů za sledování a odhalování špíny na novináře, kteří o Uberu informovali - poznamenal, že hromadné sledování je již podle čtvrtého dodatku ústavy nelegální, a trvá na tom, že "Anthropic lže", protože "@DeptofWar hromadné sledování neprovádí, protože to je nelegální. Mluvíme o tom, že našim válečníkům umožníme používat umělou inteligenci, aniž by museli žádat @DarioAmodei o povolení sestřelit nepřátelský roj dronů, který by zabil Američany. "
Grok na palubě?
Logickým krokem pro Pentagon - poté co můžou tvrdit, že dali Anthropic a OpenAI spravedlivou šanci - by bylo nahradit Claud Grokem z xAI. Samozřejmě "VYVOLÁVAJÍ POPLACH" ohledně této možnosti, podle Wall Street Journal, který cituje vždy prozíravé "lidi obeznámené s touto záležitostí." Úředníci několika federálních agentur v posledních měsících vyjádřili obavy ohledně bezpečnosti a spolehlivosti nástrojů umělé inteligence Elona Muska xAI, což poukazuje na pokračující neshody uvnitř americké vlády ohledně toho, které AI modely nasadit. Varování předcházela rozhodnutí Pentagonu tento týden postavit xAI do centra některých z nejcitlivějších a nejtajnějších operací v zemi tím, že souhlasil s tím, že jeho chatbot Grok bude používán v utajovaných prostředích. ... Vysoce postavení američtí představitelé, včetně Bílého domu, považují otevřené postoje Anthropic k bezpečnosti a vazby na velké demokratické dárce za potenciálně příliš "woke" na to, aby byl spolehlivým poskytovatelem. Uvolněnější kontrola nad Grokem a Muskův absolutistický postoj ke svobodě projevu z něj učinily atraktivnější volbu pro Pentagon.
...Ed Forst, nejvyšší představitel General Services Administration, což je federální vládní oddělení pro nákup, v posledních měsících vyhlásil poplach u představitelů Bílého domu ohledně možných bezpečnostních problémů s Grokem. Další představitelé GSA pod jeho vedením také vznesli bezpečnostní obavy ohledně Groka, kterého považovali za podlézavého a příliš náchylného k manipulaci nebo poškození chybnými či zaujatými daty - což představuje potenciální rizikové systémové řešení. Také je docela vtipné, že Správa všeobecných služeb byla vážně oslabena vážnými škrty DOGE v oblasti ´plýtvání, podvodů a zneužívání´, ale jsme si jistí, že to není případ hořkých hroznů. Vyhraje ´woke´ Anthropic a OpenAI, nebo Grok? Ať tak či tak, všichni prohrajeme. Palantir už je hluboko napříč kritickými systémy a američtí protivníci nepochybně využívají špičkovou AI ve svých obranných resortech a sledují, koho chtějí.
Zdroj:
https://eraoflight.com/2026/02/28/trump-orders-halt-to-woke-anthropic-technology-across-all-federal-agencies/
Zpět