Банкста
Пентагон хочет отдать управление оружием в руки искусственного интеллекта. Компания Anthropic столкнулась с конфликтом с Пентагоном из-за условий использования своего ИИ Claude. Переговоры по контракту на $200 млн зашли в тупик, сообщают Reuters и WSJ. Причина – запрет Anthropic на применение ИИ для внутренней слежки и автономного наведения оружия на цели. В Пентагоне считают, что такие ограничения мешают работе ведомств и что государство должно использовать ИИ в рамках закона, независимо от политики компаний. Anthropic опасается злоупотреблений и настаивает на ручном контроле и участии своих сотрудников в настройке моделей. WSJ пишет, что это ограничивает использование ИИ-агента также и для Федерального бюро расследований (ФБР) и Иммиграционной и таможенной службы (ICE). @banksta