Americká vláda jedná o zákazu AI chatbota DeepSeek na vládních zařízeních. Obává se narušení národní bezpečnosti.

Americký Kongres zvažuje zákaz čínského AI chatbota DeepSeek na vládních zařízeních. Důvodem jsou možné z bezpečnostních hrozeb.
„Čínská komunistická strana dala jasně najevo, že využije jakýkoli nástroj, který má k dispozici, aby podkopala naši národní bezpečnost, šířila škodlivé dezinformace a shromažďovala údaje o Američanech,“ uvedl demokratický poslanec Josh Gottheimer.
Agentura Associated Press už v minulosti informovala, že DeepSeek obsahuje kód, který může odesílat některé přihlašovací údaje uživatelů čínské státní telekomunikační společnosti, která má zakázáno působit ve Spojených státech.
Podle návrhu zákona by se zákaz nevztahoval pouze na DeepSeek, ale i všechny další AI nástroje vyvinuté mateřskou společností High-Flyer.
Legislativa ovšem určuje výjimky pro účely národní bezpečnosti a výzkumu, které by umožnily federálním zaměstnavatelům DeepSeek studovat.
Pokud máte doma pomalý internet, prověřte, jestli na vaší adrese není rychlejší technologie nebo levnější varianta:
Zadejte ulici, číslo popisné, obec a použijte našeptávač.
Máte na mysli nějakou z následujících adres?
Chci s ověřením dostupnosti pomoci od operátora.
Zanechte nám platný kontakt a operátor Vás bude kontaktovat.

14. 2. 2025
Autor: Redakce DSL.cz
Výzkum ČSÚ ukázal silný nástup AI i digitálních služeb v životě dětí. Čtení knih ustupuje, ale pohyb a sport si u...
Meta ukončí samostatný web Messengeru, od dubna 2026 už přes něj nepůjde posílat zprávy. Na počítači bude služba...
Na platformě OpenRouter se objevil anonymní AI model Hunter Alpha, který rychle přitáhl pozornost vývojářů. Část z...
Čeští mobilní operátoři reagují na aktuální situaci na Blízkém východě a aktivují zákazníkům v regionu bezplatná...
V únoru rychlosti internetu opět kolísaly. Podívejte se na naše nejnovější statistiky a zjistěte, jak si vedl váš...
Vědci z Velké Británie a Německa na základě průzkumu popsali čtyři nové typy uživatelů ChatGPT podle toho, jak a...