Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 30 моделей ШІ, без додаткових витрат (0%)
Щойно я помітив цікаві деталі про Самуеля Альтмана та те, що він робить з OpenAI. Конфлікт між тим, що він говорить публічно, і тим, що він робить за лаштунками, вражає.
Почнемо з нещодавньої події у Сан-Франциско 10 квітня о 03:40 ранку. 20-річний чоловік на ім’я Даніель Моріно-Гама кинув запальну бомбу у двері квартири Альтмана. Вогонь охопив двері, і він втік. Близько години потому той самий чоловік з’явився біля офісу OpenAI і погрожував підпалити знову, поки його не затримали.
Через два дні, 12 квітня о 01:40, біля будинку Альтмана на схилі припаркувалася Honda. Пасажир витягнув руку з вікна і зробив постріл у будинок. Камери зафіксували номерний знак. Пізніше затримали двох підозрюваних, обох звинуватили у необережному стрільбі.
Цікаво, що підозрюваний у першій атаці, Моріно-Гама, був людиною, яка турбувалася про передові технології штучного інтелекту. Він писав у соцмережах, посилаючись на "Дюну", щоб заперечити, що невідповідність AI становить ризик для існування людства. Критика технологічних лідерів, які ризикують долею людства заради ідеї "постгуманізму".
Після першої атаки Альтман написав блог-пост, визнавши моральну позицію опонентів і закликавши до "менше прямої і порівняльної дискусії". Він також відповів на глибоку статтю The New Yorker, опубліковану незадовго до атаки, написавши: "Я оцінив силу наративу у медіа і вважаю, що слова були занизькими". Через два дні його будинок знову обстріляли.
Це пов’язано з більшою тенденцією. У грудні 2024 року генеральний директор UnitedHealthcare був застрелений біля готелю. Підозрюваний — випускник престижного університету, який залишив повідомлення з критикою індустрії страхування здоров’я. Цей випадок викликав незвичайну реакцію у соцмережах, багато користувачів висловлювали співчуття нападнику.
Після цього безпека керівників стала не просто "привілеєм", а "необхідністю для виживання", за даними Fortune. Відсоток фізичних нападів на керівників великих компаній зріс на 225% з 2023 року. У компаніях S&P 500 витрати на безпеку керівництва склали 33.8%, порівняно з 23.3% у 2020 році.
Середня витрата компаній на безпеку становить 130 000 доларів, що на 20% більше за попередній рік і подвоїлося за п’ять років. Індустрія AI — найпомітніший і останній приклад цієї тенденції.
Витрати на безпеку CEO у 10 провідних технологічних компаніях у 2024 році перевищили 45 мільйонів доларів. Лише Марк Цукерберг витратив понад 27 мільйонів, що більше за сумарні витрати CEO Apple, Google і ще чотирьох компаній. Дженсен Хуанг з NVIDIA витратив 3.5 мільйонів у 2025 році, що на 59% більше за попередній рік. Суней Пічай з Google — 8.27 мільйонів, зростання на 22%.
Але в індустрії AI є щось, чого немає в інших галузях — її творці самі вірять, що технологія може знищити цивілізацію. У 2025 році дослідження Pew опитало 28 333 людей по всьому світу: лише 16% відчували захоплення AI, тоді як 34% — занепокоєння. Що ще більш несподівано, — висококваліфіковані та з високими доходами люди більше бояться неконтрольованого AI.
Нещодавно будинок члена міської ради Індіанаполіса Рона Джібсона був обстріляний 13-ма кулею. Його 8-річний син прокинувся від звуків стрілянини. На дверях був напис рукою: "Заборонено створювати дата-центр". ФБР провело обшук. Дослідники з університету Джорджтауна вказують, що дата-центри стають мішенню для радикальних груп, які виступають проти технологій і уряду.
Цей страх не є таємницею в індустрії, але його відкрито не озвучують. Альтман побудував бункер у Вайомінгу ще у 2016 році — у тому ж році, коли OpenAI оголосила про заснування. Водночас він виступає на сцені, називаючи AI найбільшим шансом людства, — але водночас він накопичує зброю і готується до громадянської війни.
Основна історія OpenAI за останні п’ять років — це наголошення на серйозності загрози "рівня існування" AGI, щоб уряди звернули увагу на регулювання, інвестори зрозуміли ризики, а галузь усвідомила, що змагатися з цим не можна. Фраза "Це найнебезпечніша технологія в історії людства" — після публікації вона не обмежується лише технологічною сферою, а передається далі і іноді стає наказом до дії.
Моріно-Гама написав у Instagram: "Прогрес у геометричній прогресії у поєднанні з відсутністю узгодженості — це ризик для виживання". Ця аргументація походить із ключових документів у галузі безпеки AI, багато з яких підтримуються або схвалюються OpenAI.
27 лютого цього року OpenAI підписала контракт із Міністерством оборони США, дозволивши військовим використовувати ChatGPT у секретних мережах оборони. У той самий день Альтман висловив підтримку обмеженням у використанні AI у військовій сфері, зокрема, підтримав позицію Anthropic.
Відключення ChatGPT зросло на 295% за один день, кількість відгуків із однією зіркою — на 775%. Акція QuitGPT зібрала понад 1.5 мільйона учасників. 21 березня близько 200 протестувальників пройшли маршем у Сан-Франциско, вимагаючи від трьох CEO припинити розробку передових AI. Водночас у Лондоні відбувся найбільший у історії протест проти AI.
Бункери та охоронці Альтмана створені для протистояння двом різним видам ризиків: зовнішнім і внутрішнім. Він серйозно ставиться до обох, але публічно визнає лише один.
Глибока стаття The New Yorker, опублікована тиждень після першої атаки, базується на інтерв’ю з понад 100 свідками. Основні аргументи — лише два слова: "ненадійно". У статті цитуються колишні члени ради OpenAI, які назвали Альтмана "антисоціальною особистістю" і "недобросовісним щодо правди". Багато колег описують, що він постійно змінює свою позицію щодо безпеки AI і переформовує владу за потреби.
У своєму пості Альтман визнав, що схильний уникати конфліктів. Він створює публічний наратив, що "AI — це загроза існуванню", щоб залучити фінансування і регулювання. Але в кінцевому підсумку ця зброя вийшла з-під контролю і повернулася до його дверей.