Народ нуждается в плохом капиталисте, ИИ создал слухи о доставке еды

robot
Генерация тезисов в процессе

Написано: Кури, Deep Tide TechFlow

На прошлой неделе произошла довольно волшебная история.

Два крупнейших американских сервиса доставки еды — один с капиталом 2,7 миллиарда долларов, другой управляет крупнейшей в мире платформой такси — в субботу рано утром не спали и в интернете писали короткие посты, чтобы доказать свою невиновность.

Причиной стала анонимная публикация на Reddit.

Автор поста представился бэкенд-инженером крупной службы доставки, был пьян и зашел в библиотеку через публичный Wi-Fi, чтобы сливать информацию.

Содержание примерно такое:

Компания анализирует ситуацию с водителями такси и присваивает им «отчаяние-оценку»: чем больше у водителя финансовых проблем, тем меньше у него шансов получить хорошие заказы; так называемая приоритетная доставка еды — фикция, обычные заказы задерживаются; все «бонусы для водителей» — пустой звук, все деньги идут на лоббирование в Конгрессе против профсоюзов…

В конце поста автор создает очень правдоподобный образ: «Я пьяный, я зол, поэтому решил раскрыть правду».

Он полностью выдает себя как «информатор, разоблачающий алгоритмическое давление на водителей в крупных компаниях».

Через три дня после публикации пост набрал 87 000 лайков и поднялся на главную страницу Reddit. Также кто-то сделал скриншот и выложил в X, где пост получил 36 миллионов просмотров.

Стоит помнить, что на рынке доставки еды в США всего несколько крупных игроков, и хотя в посте не названо конкретное имя, все догадываются, о ком идет речь.

Генеральный директор DoorDash Тони Сюй сразу же заявил в Твиттере, что это не их работа, и кто бы ни делал такие вещи — его уволят. COO Uber тоже выступил с ответом: «Не верьте всему, что видите в интернете».

DoorDash даже выпустила на своем сайте заявление из пяти пунктов, опровергающее каждое утверждение из поста. Эти две компании, с общей рыночной капитализацией более 800 миллиардов долларов, были вынуждены срочно заниматься PR-кампанией из-за анонимной публикации.

И вдруг выяснилось, что этот пост — искусственный интеллект.

Раскрыл его журналист из зарубежного технологического издания Platformer Кейси Ньютона.

Он связался с автором поста и получил от него 18-страничный «внутренний технический документ» с названием «AllocNet-T: High-Dimensional Temporal Supply State Modeling» — «Моделирование высокоразмерных временных состояний предложения».

Перевод — «Моделирование временного состояния предложения в высоких измерениях». Каждая страница помечена водяным знаком «секретно», а авторство приписано «отделу рыночной динамики и поведенческой экономики Uber».

Содержание — это объяснение модели, которая присваивала водителям «отчаяние-оценку» в Reddit-посте. Там есть архитектурные схемы, математические формулы, блок-схемы данных…

(фейковый скриншот статьи, на первый взгляд очень похожий на настоящий)

Ньютона рассказали, что этот документ сначала его обманул. Кто будет тратить силы на подделку 18 страниц технической документации, чтобы поймать журналиста?

Но сейчас ситуация изменилась.

Эту 18-страничную документацию можно сгенерировать за несколько минут с помощью AI.

Также, автор поста прислал журналисту фотографию своего служебного удостоверения Uber с замазанными данными, подтверждая, что он действительно работает там.

Из любопытства Ньютона загрузил это удостоверение в Google Gemini для проверки, и система сказала, что изображение — AI-сгенерированное.

Обнаружить это удалось потому, что Google встроила в свои AI-выходы невидимый водяной знак — SynthID, который не виден невооруженным глазом, но может быть обнаружен машиной.

Более того, на удостоверении было изображено логотип «Uber Eats» — сервиса доставки еды Uber.

Представитель Uber подтвердил: «У нас вообще нет служебных удостоверений с логотипом Uber Eats, все удостоверения — только с логотипом Uber».

Очевидно, что этот фальшивый «информатор» даже не понял, кого он пытается «подставить». Когда журналист попросил его предоставить профили в LinkedIn или других соцсетях для дальнейшей проверки,

тот просто удалил аккаунт и исчез.

На самом деле, речь не о том, может ли AI подделывать — это давно известно.

Нам больше интересно: почему миллионы людей готовы поверить анонимному посту?

В 2020 году DoorDash подали в суд за использование чаевых для снижения базовой зарплаты водителей и проиграли — выплатили 16,75 миллиона долларов. Uber создала инструмент Greyball, чтобы избегать регулирования. Это реальные истории.

Легко найти подсознательное согласие: платформа — не очень хорошая штука, и это точно.

Поэтому, когда кто-то говорит «алгоритмы платформы эксплуатируют водителей», первая реакция — не «это правда?», а «ну, конечно».

Ложь может распространяться, потому что она выглядит как то, во что уже веришь.

AI же делает так, что эта «подобие» стоит почти ничего.

В этой истории есть еще один нюанс.

Обнаружение обмана — это работа водяных знаков Google. Google создает AI, и у Google есть инструменты для их обнаружения.

Но SynthID работает только с AI Google. В этот раз его удалось поймать потому, что фальсификаторы использовали Gemini. Если бы использовали другую модель — успеха бы не было.

Поэтому эта история — не столько технологическая победа, сколько:

ошибка со стороны злоумышленника.

Ранее, по данным Reuters, 59% людей боятся не отличить правду от лжи в интернете.

Твиттеры и заявления руководителей служб доставки увидели десятки миллионов человек, но сколько из них поверили, что это PR или ложь? Хотя пост уже удален, в комментариях продолжают ругать платформы.

Ложь разлетелась по полмира, а правда все еще завязывает шнурки.

Подумайте, а что если бы в этом посте речь шла не об Uber, а о Meituan или Ele.me?

Что за «отчаяние-оценка», что за «использование алгоритмов для давления на курьеров», что за «беспрецедентные выплаты» — все эти обвинения вызывают у вас эмоциональную реакцию?

Вы помните статью «Курьеры доставки, застрявшие в системе»?

Так что дело не в том, сможет ли AI подделывать. Вопрос в том, важно ли, что ложь выглядит как то, что вы давно уже верите.

Тот, кто удалился и сбежал, — зачем он это сделал, неясно.

Он просто нашел эмоциональный выход и налил туда AI-генерируемого топлива.

Пожар разгорелся. А горит ли настоящее или фальшивое — кому это важно?

В сказке Пиноккио лжецу растет нос.

AI носа не имеет.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить