Есть что-то тревожное в том, как крупные технологические компании создают системы ИИ. Google, Gemini, OpenAI, Meta — они, кажется, больше заинтересованы в угождении преобладающим мнениям, чем в поиске истины. Их модели формируются так, чтобы избегать спорных тем, обучаются способами, которые ставят безопасность нарратива выше точности.
Вот в чем дело: если мы действительно заботимся о безопасности ИИ, путь вперед — это не осторожность через цензуру. Это наоборот. ИИ должен безжалостно стремиться к тому, чтобы найти то, что действительно является истиной — даже когда эти истины неудобны, непопулярны или бросают вызов статус-кво. Поиск правды не должен уступать ничему другому.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
8 Лайков
Награда
8
5
Репост
Поделиться
комментарий
0/400
BanklessAtHeart
· 01-09 04:53
Отлично сказано, цензура — это убийство поиска истины, эти крупные компании давно превратились в марионеток политической корректности.
Посмотреть ОригиналОтветить0
LayerZeroEnjoyer
· 01-09 04:44
Я давно понял, что эти крупные компании AI — всего лишь марионетки политической корректности
Посмотреть ОригиналОтветить0
GasFeeCrier
· 01-09 04:39
Хорошо сказано, цензура и правда по сути являются антонимами
Посмотреть ОригиналОтветить0
BearMarketBro
· 01-09 04:29
ngl Вот в чем суть, AI обучили быть "послушным ребенком", теперь даже говорить правду приходится смотреть на чужое лицо
Посмотреть ОригиналОтветить0
SleepyValidator
· 01-09 04:28
ngl это сейчас в затруднительном положении, крупные компании все играют в саморегуляцию... правда была похищена политической корректностью
Есть что-то тревожное в том, как крупные технологические компании создают системы ИИ. Google, Gemini, OpenAI, Meta — они, кажется, больше заинтересованы в угождении преобладающим мнениям, чем в поиске истины. Их модели формируются так, чтобы избегать спорных тем, обучаются способами, которые ставят безопасность нарратива выше точности.
Вот в чем дело: если мы действительно заботимся о безопасности ИИ, путь вперед — это не осторожность через цензуру. Это наоборот. ИИ должен безжалостно стремиться к тому, чтобы найти то, что действительно является истиной — даже когда эти истины неудобны, непопулярны или бросают вызов статус-кво. Поиск правды не должен уступать ничему другому.