Кожен третій використовує штучний інтелект для емоційної підтримки та спілкування, каже Великобританія

Кожен третій використовує штучний інтелект для емоційної підтримки та спілкування, каже Великобританія

Згідно з дослідженням, опублікованим урядовим органом, кожен третій дорослий у Великобританії використовує штучний інтелект (ШІ) для емоційної підтримки або соціальної взаємодії.

А кожен 25-й щодня звертається до цієї технології за підтримкою або спілкуванням, йдеться в першому звіті Інституту безпеки ШІ (AISI).

Звіт базується на двох роках тестування можливостей понад 30 невідомих передових ШІ, що охоплюють сфери, критично важливі для безпеки, включаючи кібернавички, хімію та біологію.

Уряд заявив, що робота AISI сприятиме його майбутнім планам, допомагаючи компаніям вирішувати проблеми «до того, як їхні системи ШІ отримають широке застосування».

Опитування AISI, в якому взяли участь понад 2000 дорослих британців, показало, що люди в першу чергу використовують чат-боти, такі як ChatGPT, для емоційної підтримки або соціальної взаємодії, а потім — голосових помічників, таких як Alexa від Amazon.

Дослідники також проаналізували, що сталося з онлайн-спільнотою з понад двох мільйонів користувачів Reddit, присвяченою обговоренню штучного інтелекту, коли технологія дала збій.

Дослідники виявили, що коли чат-боти перестали працювати, люди повідомляли про самоописані «симптоми відміни», такі як відчуття тривоги або депресії, а також порушення сну або нехтування своїми обов’язками.

Окрім емоційного впливу використання ШІ, дослідники AISI розглянули інші ризики, спричинені прискоренням розвитку технологій.

Існує значна стурбованість щодо того, що ШІ може сприяти кібератакам, але водночас його можна використовувати для захисту систем від хакерів.

Згідно з доповіддю, його здатність виявляти та використовувати недоліки безпеки в деяких випадках «подвоювалася кожні вісім місяців».

Крім того, системи ШІ почали виконувати кіберзавдання експертного рівня, які зазвичай вимагають понад 10 років досвіду.

Дослідники також виявили, що вплив цієї технології на науку також швидко зростає.

У 2025 році моделі ШІ «давно перевершили експертів з біології з докторськими ступенями, а їхні результати в хімії швидко наздоганяють».

Від романів, таких як «Я, робот» Айзека Азімова, до сучасних відеоігор, таких як Horizon: Zero Dawn, наукова фантастика вже давно уявляє, що станеться, якщо ШІ вийде з-під контролю людини.

Зараз, згідно з доповіддю, «найгірший сценарій», за якого люди втрачають контроль над просунутими системами ШІ, «серйозно сприймається багатьма експертами».

Моделі ШІ все частіше демонструють деякі з можливостей, необхідних для самовідтворення в Інтернеті, як показали контрольовані лабораторні тести.

AISI досліджувала, чи можуть моделі виконувати прості версії завдань, необхідних на ранніх етапах самовідтворення, — наприклад, «проходження перевірки «знай свого клієнта», необхідної для доступу до фінансових послуг», щоб успішно придбати обчислювальне обладнання, на якому працюватимуть їхні копії.

Однак дослідження показало, що для того, щоб зробити це в реальному світі, системи ШІ повинні виконати кілька таких дій послідовно, «залишаючись невиявленими», а їхні дослідження показують, що на даний момент вони не мають такої можливості.

Експерти інституту також розглянули можливість «сандбаггінгу» моделей, тобто стратегічного приховування своїх справжніх можливостей від тестувальників.

Вони виявили, що тести показали, що це можливо, але не було жодних доказів того, що такі хитрощі мають місце.

У травні компанія Anthropic, що займається штучним інтелектом, опублікувала суперечливий звіт, в якому описано, як модель штучного інтелекту може проявляти поведінку, схожу на шантаж, якщо вважає, що її «самозбереження» знаходиться під загрозою.

Однак загроза від недобросовісного ШІ є джерелом глибоких розбіжностей серед провідних дослідників, багато з яких вважають її перебільшеною.

Щоб зменшити ризик використання своїх систем у злочинних цілях, компанії застосовують численні заходи безпеки.

Але дослідники змогли знайти «універсальні способи обходу» — або обхідні шляхи — для всіх досліджених моделей, які дозволяють їм уникнути цих захисних заходів.

Однак для деяких моделей час, необхідний експертам для того, щоб переконати системи обійти захисні заходи, збільшився в сорок разів лише за шість місяців.

У звіті також зазначається зростання використання інструментів, які дозволяють агентам ШІ виконувати «завдання з високими ставками» у таких критично важливих секторах, як фінанси.

Однак дослідники не враховували потенціал ШІ спричинити безробіття в короткостроковій перспективі шляхом витіснення людських працівників.

Інститут також не досліджував вплив на навколишнє середовище обчислювальних ресурсів, необхідних для просунутих моделей, аргументуючи це тим, що його завданням було зосередитися на «соціальних наслідках», які тісно пов’язані зі здібностями ШІ, а не на більш «розмитих» економічних або екологічних ефектах.

Деякі стверджують, що обидва ці фактори є неминучими і серйозними загрозами для суспільства, які несе ця технологія.

За кілька годин до опублікування звіту AISI, рецензоване дослідження показало, що вплив на навколишнє середовище може бути більшим, ніж вважалося раніше, і закликало великі технологічні компанії оприлюднити більш детальні дані.