З огляду на прагнення зупинити зростання сексуальної експлуатації дітей за допомогою ШІ, OpenAI у середу опублікувала політичний план, який описує нові заходи безпеки, що їх індустрія може вжити, щоб стримати використання ШІ для створення матеріалів сексуального насильства над дітьми. У цьому рамках OpenAI наводить юридичні, операційні та технічні заходи, спрямовані на посилення захисту від зловживань, пов’язаних із ШІ, і на покращення координації між технологічними компаніями та слідчими. “Сексуальна експлуатація дітей є одним із найнагальніших викликів цифрової епохи”, — написала компанія. “ШІ швидко змінює і те, як ці шкоди виникають у всій індустрії, і те, як їх можна вирішувати в масштабі”.
OpenAI заявила, що пропозиція враховує відгуки організацій, які працюють у сфері захисту дітей та онлайн-безпеки, зокрема National Center for Missing and Exploited Children та Attorney General Alliance і її AI task force. “Генеративний ШІ прискорює злочин сексуальної експлуатації дітей онлайн дуже тривожними способами — знижує бар’єри, збільшує масштаб і дає змогу створювати нові форми шкоди, — сказала президентка та генеральний директор National Center for Missing & Exploited Children Мішель ДеЛоне в заяві. — Але водночас National Center for Missing & Exploited Children надихає те, що такі компанії, як OpenAI, замислюються над тим, як ці інструменти можна спроєктувати більш відповідально, із запобіжниками, вбудованими з самого початку”. OpenAI заявила, що в рамках поєднуються правові стандарти, галузеві системи звітності та технічні запобіжники в моделях ШІ. Компанія стверджує, що ці заходи мають допомогти виявляти ризики експлуатації раніше та підвищити підзвітність у всіх онлайн-платформах.
У “blueprint” визначено сфери для дій, зокрема оновлення законів, щоб вирішувати проблему матеріалів сексуального насильства над дітьми, згенерованих чи змінених ШІ, покращення того, як онлайн-провайдери повідомляють про сигнали зловживань і координуються зі слідчими, а також вбудовування запобіжників у системи ШІ, призначені для запобігання зловживанням. “Жодне втручання не може самостійно впоратися з цим викликом”, — написала компанія. “Ця рамкова ініціатива об’єднує правові, операційні та технічні підходи, щоб краще виявляти ризики, прискорювати реагування й підтримувати підзвітність, гарантуючи водночас, що органи правозастосування залишаються сильними в міру розвитку технологій”. “Blueprint” виходить на тлі того, що прихильники безпеки дітей висловили занепокоєння тим, що системи генеративного ШІ, здатні створювати реалістичні зображення, можуть бути використані для створення підроблених або синтетичних зображень неповнолітніх. У лютому UNICEF закликала уряди світу ухвалити закони, які криміналізують матеріали дитячого насильства, згенеровані ШІ. У січні Європейська комісія розпочала офіційне розслідування того, чи порушила X, яка раніше називалася Twitter, цифрові правила ЄС, не запобігши тому, щоб рідна AI-модель платформи, Grok, генерувала незаконний контент, — водночас регулятори у Сполученому Королівстві та Австралії також відкрили розслідування. Оскільки самі лише закони не зупинять цю напасть матеріалів, згенерованих ШІ, OpenAI заявила, що коли системи ШІ стануть більш спроможними, необхідними будуть посилені галузеві стандарти. “Перериваючи спроби експлуатації раніше, покращуючи якість сигналів, які надсилаються правоохоронним органам, і зміцнюючи підзвітність у всій екосистемі, ця рамкова ініціатива прагне запобігти шкоді до того, як вона станеться, і допомогти забезпечити швидший захист дітей, коли з’являються ризики”, — заявила OpenAI.