Китай розправляється з ШІ, щоб захистити дітей

Китай розправляється з ШІ, щоб захистити дітей

Китай запропонував нові суворі правила щодо штучного інтелекту (ШІ), щоб забезпечити захист дітей і запобігти наданню чат-ботами порад, які можуть призвести до самоушкодження або насильства.

Згідно з запланованими правилами, розробники також повинні будуть гарантувати, що їхні моделі ШІ не генерують контент, який пропагує азартні ігри.

Ця заява з’явилася після різкого зростання кількості чат-ботів, що запускаються в Китаї та в усьому світі.

Після остаточного затвердження правила будуть застосовуватися до продуктів та послуг ШІ в Китаї, що стане важливим кроком у напрямку регулювання цієї швидкозростаючої технології, яка цього року стала предметом пильної уваги з огляду на питання безпеки.

Проект правил, опублікований у вихідні Китайською адміністрацією кіберпростору (CAC), включає заходи щодо захисту дітей. Вони передбачають вимогу до компаній, що займаються штучним інтелектом, пропонувати персоналізовані налаштування, встановлювати обмеження на час використання та отримувати згоду опікунів перед наданням послуг емоційного супроводу.

Оператори чат-ботів повинні передавати будь-які розмови, пов’язані із самогубством або самоушкодженням, людині і негайно повідомляти опікуна користувача або контактну особу в екстрених випадках, заявила адміністрація.

Постачальники штучного інтелекту повинні гарантувати, що їхні послуги не генерують і не поширюють «контент, який ставить під загрозу національну безпеку, шкодить національній честі та інтересам [або] підриває національну єдність», йдеться в заяві.

CAC заявила, що заохочує впровадження штучного інтелекту, наприклад, для просування місцевої культури та створення інструментів для супроводу літніх людей, за умови, що технологія є безпечною та надійною. Вона також закликала громадськість надавати відгуки.

Китайська компанія DeepSeek, що займається штучним інтелектом, цього року потрапила на перші шпальти газет у всьому світі після того, як очолила рейтинги завантажень додатків.

Цього місяця два китайські стартапи Z.ai та Minimax, які разом мають десятки мільйонів користувачів, оголосили про плани виходу на фондовий ринок.

Ця технологія швидко завоювала величезну кількість користувачів, деякі з яких використовують її для товариства або терапії.

Вплив штучного інтелекту на поведінку людини останніми місяцями став предметом пильної уваги.

Сем Альтман, глава OpenAI, розробника ChatGPT, заявив цього року, що спосіб, у який чат-боти реагують на розмови, пов’язані із самоушкодженням, є однією з найскладніших проблем компанії.

У серпні сім’я з Каліфорнії подала позов проти OpenAI через смерть свого 16-річного сина, стверджуючи, що ChatGPT підштовхнув його до самогубства. Цей позов став першим судовим процесом, в якому OpenAI звинувачують у неправомірній смерті.

Цього місяця компанія оголосила про вакансію «керівника з питань готовності», який буде відповідати за захист від ризиків, пов’язаних з моделями штучного інтелекту, для психічного здоров’я людей та кібербезпеки.

Успішний кандидат буде відповідати за відстеження ризиків штучного інтелекту, які можуть завдати шкоди людям. Пан Альтман сказав: «Це буде стресова робота, і ви практично відразу опинитеся в епіцентрі подій».