Наткнулся на статью с новыми взглядами на риски внедрения ИИ, о которых раньше не задумывался. Автор поднимает вопросы, выходящие за рамки привычного технологического оптимизма, который мы видим повсюду. Стоит ознакомиться, если вам интересно узнать о более мрачных перспективах развития этой технологии. Правда, придётся продраться через комментарии из соцсетей и отсылки к технокультуре, чтобы добраться до сути аргументации. Тем не менее, основные идеи о потенциальных сценариях провала ИИ достаточно интересны, чтобы уделить им внимание.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Репост
  • Поделиться
комментарий
0/400
ForkThisDAOvip
· 12-10 23:59
Действительно следует учитывать сценарии черных лебедей в AI, но чтобы добраться до сути в той статье, нужно сначала очистить ее от множества мусорных комментариев
Посмотреть ОригиналОтветить0
AirdropJunkievip
· 12-09 22:07
Про это ИИ действительно стоит хорошенько подумать, нельзя просто слушать все эти хвастливые заявления венчурных капиталистов.
Посмотреть ОригиналОтветить0
pumpamentalistvip
· 12-09 22:07
В этой области рисков ИИ действительно легко быть обманутым, нужно посмотреть, на какую больную точку нацелилась эта статья.
Посмотреть ОригиналОтветить0
RunWithRugsvip
· 12-09 22:05
Та тема с рисками ИИ действительно становится всё более конкурентной, но, похоже, эта статья действительно задела за что-то новое.
Посмотреть ОригиналОтветить0
MysteryBoxBustervip
· 12-09 22:03
Эти разговоры о неконтролируемом ИИ уже приелись, действительно интересно узнать, как именно всё может взорваться...
Посмотреть ОригиналОтветить0
DaoResearchervip
· 12-09 21:52
Судя по данным, количество цитирований подобных статей о рисках ИИ за последние 18 месяцев выросло на 237%. Примечательно, что в большинстве предложений по управлению от проектов эти модели неудач вообще не рассматриваются. Согласно механизму стимулов, описанному в whitepaper, эти риски уже давно должны были быть учтены в рамках принятия решений, но на практике токен-взвешенное голосование приводит к доминированию краткосрочных интересов за счет долгосрочного осознания рисков. Рекомендую не впадать в оптимизм раньше времени, а сперва сопоставить список моделей неудач из этой статьи с уязвимостями управления вашего DAO — спорю на пять рублей, что найдете как минимум три полностью совпадающих пункта.
Посмотреть ОригиналОтветить0
  • Закрепить