Щойно я помітив цікаві деталі про Самуеля Альтмана та те, що він робить з OpenAI. Конфлікт між тим, що він говорить публічно, і тим, що він робить за лаштунками, вражає.



Почнемо з нещодавньої події у Сан-Франциско 10 квітня о 03:40 ранку. 20-річний чоловік на ім’я Даніель Моріно-Гама кинув запальну бомбу у двері квартири Альтмана. Вогонь охопив двері, і він втік. Близько години потому той самий чоловік з’явився біля офісу OpenAI і погрожував підпалити знову, поки його не затримали.

Через два дні, 12 квітня о 01:40, біля будинку Альтмана на схилі припаркувалася Honda. Пасажир витягнув руку з вікна і зробив постріл у будинок. Камери зафіксували номерний знак. Пізніше затримали двох підозрюваних, обох звинуватили у необережному стрільбі.

Цікаво, що підозрюваний у першій атаці, Моріно-Гама, був людиною, яка турбувалася про передові технології штучного інтелекту. Він писав у соцмережах, посилаючись на "Дюну", щоб заперечити, що невідповідність AI становить ризик для існування людства. Критика технологічних лідерів, які ризикують долею людства заради ідеї "постгуманізму".

Після першої атаки Альтман написав блог-пост, визнавши моральну позицію опонентів і закликавши до "менше прямої і порівняльної дискусії". Він також відповів на глибоку статтю The New Yorker, опубліковану незадовго до атаки, написавши: "Я оцінив силу наративу у медіа і вважаю, що слова були занизькими". Через два дні його будинок знову обстріляли.

Це пов’язано з більшою тенденцією. У грудні 2024 року генеральний директор UnitedHealthcare був застрелений біля готелю. Підозрюваний — випускник престижного університету, який залишив повідомлення з критикою індустрії страхування здоров’я. Цей випадок викликав незвичайну реакцію у соцмережах, багато користувачів висловлювали співчуття нападнику.

Після цього безпека керівників стала не просто "привілеєм", а "необхідністю для виживання", за даними Fortune. Відсоток фізичних нападів на керівників великих компаній зріс на 225% з 2023 року. У компаніях S&P 500 витрати на безпеку керівництва склали 33.8%, порівняно з 23.3% у 2020 році.

Середня витрата компаній на безпеку становить 130 000 доларів, що на 20% більше за попередній рік і подвоїлося за п’ять років. Індустрія AI — найпомітніший і останній приклад цієї тенденції.

Витрати на безпеку CEO у 10 провідних технологічних компаніях у 2024 році перевищили 45 мільйонів доларів. Лише Марк Цукерберг витратив понад 27 мільйонів, що більше за сумарні витрати CEO Apple, Google і ще чотирьох компаній. Дженсен Хуанг з NVIDIA витратив 3.5 мільйонів у 2025 році, що на 59% більше за попередній рік. Суней Пічай з Google — 8.27 мільйонів, зростання на 22%.

Але в індустрії AI є щось, чого немає в інших галузях — її творці самі вірять, що технологія може знищити цивілізацію. У 2025 році дослідження Pew опитало 28 333 людей по всьому світу: лише 16% відчували захоплення AI, тоді як 34% — занепокоєння. Що ще більш несподівано, — висококваліфіковані та з високими доходами люди більше бояться неконтрольованого AI.

Нещодавно будинок члена міської ради Індіанаполіса Рона Джібсона був обстріляний 13-ма кулею. Його 8-річний син прокинувся від звуків стрілянини. На дверях був напис рукою: "Заборонено створювати дата-центр". ФБР провело обшук. Дослідники з університету Джорджтауна вказують, що дата-центри стають мішенню для радикальних груп, які виступають проти технологій і уряду.

Цей страх не є таємницею в індустрії, але його відкрито не озвучують. Альтман побудував бункер у Вайомінгу ще у 2016 році — у тому ж році, коли OpenAI оголосила про заснування. Водночас він виступає на сцені, називаючи AI найбільшим шансом людства, — але водночас він накопичує зброю і готується до громадянської війни.

Основна історія OpenAI за останні п’ять років — це наголошення на серйозності загрози "рівня існування" AGI, щоб уряди звернули увагу на регулювання, інвестори зрозуміли ризики, а галузь усвідомила, що змагатися з цим не можна. Фраза "Це найнебезпечніша технологія в історії людства" — після публікації вона не обмежується лише технологічною сферою, а передається далі і іноді стає наказом до дії.

Моріно-Гама написав у Instagram: "Прогрес у геометричній прогресії у поєднанні з відсутністю узгодженості — це ризик для виживання". Ця аргументація походить із ключових документів у галузі безпеки AI, багато з яких підтримуються або схвалюються OpenAI.

27 лютого цього року OpenAI підписала контракт із Міністерством оборони США, дозволивши військовим використовувати ChatGPT у секретних мережах оборони. У той самий день Альтман висловив підтримку обмеженням у використанні AI у військовій сфері, зокрема, підтримав позицію Anthropic.

Відключення ChatGPT зросло на 295% за один день, кількість відгуків із однією зіркою — на 775%. Акція QuitGPT зібрала понад 1.5 мільйона учасників. 21 березня близько 200 протестувальників пройшли маршем у Сан-Франциско, вимагаючи від трьох CEO припинити розробку передових AI. Водночас у Лондоні відбувся найбільший у історії протест проти AI.

Бункери та охоронці Альтмана створені для протистояння двом різним видам ризиків: зовнішнім і внутрішнім. Він серйозно ставиться до обох, але публічно визнає лише один.

Глибока стаття The New Yorker, опублікована тиждень після першої атаки, базується на інтерв’ю з понад 100 свідками. Основні аргументи — лише два слова: "ненадійно". У статті цитуються колишні члени ради OpenAI, які назвали Альтмана "антисоціальною особистістю" і "недобросовісним щодо правди". Багато колег описують, що він постійно змінює свою позицію щодо безпеки AI і переформовує владу за потреби.

У своєму пості Альтман визнав, що схильний уникати конфліктів. Він створює публічний наратив, що "AI — це загроза існуванню", щоб залучити фінансування і регулювання. Але в кінцевому підсумку ця зброя вийшла з-під контролю і повернулася до його дверей.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити