OpenAI переглядає військову угоду з Пентагоном на тлі шквалу критики

Сем Альтман та логотип OpenAI на фоні Пентагону — військова співпраця у сфері ШІ Генеральний директор OpenAI Сем Альтман визнав помилки в угоді з американським урядом.

Компанія OpenAI оголосила про суттєві корективи в угоді з урядом США щодо використання своїх ШІ-технологій у секретних оборонних проєктах. Генеральний директор Сем Альтман визнав, що початковий варіант документа виглядав «опортуністичним та недбалим», тому наразі до нього вносять пункти, що обмежують сферу застосування штучного інтелекту.

Нові обмеження та етичні питання

Одне з ключових оновлень — сувора заборона на використання систем OpenAI для стеження за американськими громадянами. Крім того, розвідувальні структури (зокрема АНБ) не зможуть експлуатувати технології компанії без додаткових узгоджень та модифікацій контракту.

Сем Альтман пояснив поспіх із підписанням угоди минулої п’ятниці намаганням стабілізувати ситуацію після конфлікту між конкурентом Anthropic та Міноборони США. Проте він визнав, що такий крок викликав неоднозначну реакцію суспільства.

«Ці питання надзвичайно складні й потребують максимально прозорої комунікації. Ми хотіли деескалювати конфлікт, але збоку це виглядало як необачна спроба скористатися моментом», — зазначив Альтман.

Реакція ринку та конкуренція

Наслідки співпраці з військовими для OpenAI стали відчутними миттєво:

  • Відтік користувачів: Кількість видалень додатка ChatGPT у суботу зросла на 295%.
  • Зліт конкурентів: Нейромережа Claude від компанії Anthropic очолила рейтинг App Store.

Цікаво, що Anthropic раніше потрапила під санкції адміністрації Трампа через відмову створювати повністю автономну зброю. Попри це, з’явилася інформація про використання Claude у військових конфліктах на Близькому Сході лише через кілька годин після запровадження офіційної заборони.

ШІ на полі бою: роль Palantir та ризики

Сьогодні ШІ активно допомагає в логістиці та аналізі даних. Зокрема, США, Україна та НАТО використовують платформу Palantir для обробки розвідданих. На базі системи Maven комерційні моделі ШІ (такі як той самий Claude) допомагають військовим швидше ухвалювати рішення.

Проте експерти застерігають про головні загрози:

  1. Галюцинації: ШІ схильний до помилок та вигадування фактів, що критично у військових умовах.
  2. Відсутність контролю: Професорка Оксфорду Маріаросарія Таддео зауважила, що після виходу Anthropic з прямих контактів з Пентагоном, у військових кабінетах стало менше фахівців, які ставлять безпеку вище за ефективність.

Представники НАТО та компанії Palantir наполягають на принципі «людина в циклі» (human in the loop), стверджуючи, що остаточне рішення про застосування сили завжди залишається за оператором, а не за алгоритмом.

За матеріалами: BBC

Зміст