Американська компанія Anthropic, що розробляє систему штучного інтелекту Claude, заявила про готовність припинити співпрацю з Міністерством оборони США, якщо це вимагатиме відмови від її обмежень щодо застосування ШІ.
Генеральний директор Anthropic Даріо Амодей повідомив, що компанія не погодиться на використання своїх технологій у сценаріях, які, на її думку, можуть суперечити демократичним цінностям — зокрема для масового внутрішнього спостереження або повністю автономних систем озброєння.
Конфлікт навколо контрактних умов
Заява пролунала після переговорів з очільником Міністерство оборони США Піт Хегсет, під час яких Пентагон наполягав на включенні до контракту положення про «будь-яке законне використання» інструментів Anthropic.
Компанії дали зрозуміти, що у разі відмови її можуть виключити з оборонного ланцюга постачання або визнати «ризиком для безпеки».
«Ці погрози не змінюють нашої позиції. Ми не можемо погодитися на використання наших систем у спосіб, який потенційно підриває, а не захищає демократичні принципи», — зазначив Амодей.
Які сценарії викликають занепокоєння
За словами керівника Anthropic, ключовими червоними лініями залишаються:
- масове внутрішнє стеження за громадянами США;
- застосування ШІ у повністю автономній летальній зброї.
В Anthropic наголошують, що такі сценарії не передбачалися жодним з попередніх контрактів і не повинні з’являтися в нових угодах.
Речниця компанії заявила, що оновлене формулювання контракту, отримане від Пентагону цього тижня, не забезпечує реальних гарантій проти таких застосувань і містить юридичні застереження, які дозволяють їх обійти.
Позиція Пентагону
Заступник міністра оборони США Еміль Майкл публічно розкритикував позицію Anthropic, заявивши, що військове відомство діє в межах чинного законодавства, а спірні сценарії використання ШІ вже заборонені політикою Пентагону.
Він також наголосив, що США мають враховувати дії Китаю у сфері військового ШІ, що потребує ширших технологічних можливостей.
Раніше представники оборонного відомства допускали застосування Закону про оборонне виробництво, який дає президенту право зобов’язати компанії працювати на потреби національної безпеки.
Сумніви щодо юридичних підстав
Колишній високопосадовець Міністерства оборони, коментуючи ситуацію анонімно, назвав можливі юридичні підстави для таких дій «вкрай слабкими». Інше джерело, знайоме з переговорами, зазначило, що напруженість між сторонами триває вже кілька місяців.
ШІ, спостереження і зброя
Амодей підкреслив, що Anthropic підтримує використання штучного інтелекту для зовнішньої розвідки та контррозвідки, але не для масового збору даних про громадян.
Окремо він наголосив, що сучасні системи ШІ ще недостатньо надійні для ухвалення критичних рішень у бойових умовах без людського контролю.
«Ми не будемо постачати продукт, який може наражати на небезпеку військових або цивільних осіб», — зазначив він.
Компанія також пропонувала співпрацю з Пентагоном у сфері досліджень безпеки та надійності ШІ, однак ця ініціатива не була підтримана.
