Є щось тривожне у тому, як великі технологічні компанії створюють системи штучного інтелекту. Google, Gemini, OpenAI, Meta — вони здаються більше зацікавленими у задоволенні панівних думок, ніж у пошуку істини. Їхні моделі формуються так, щоб уникати суперечливих тем, навчаються у спосіб, що ставить безпеку наративу вище за точність.
Однак ось у чому справа: якщо ми справді дбаємо про безпеку ШІ, шлях вперед — це не обережність через цензуру. Це навпаки. ШІ має бути безжально налаштованим на пошук того, що дійсно є істинним — навіть коли ці істини незручні, непопулярні або кидають виклик статус-кво. Пошук істини не повинен поступатися нічим іншим.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
8 лайків
Нагородити
8
6
Репост
Поділіться
Прокоментувати
0/400
MetaDreamer
· 23год тому
Чесно кажучи, ці великі компанії з AI — це просто приручені, все потрібно проходити через цензуру.
Переглянути оригіналвідповісти на0
BanklessAtHeart
· 01-09 04:53
Гарно сказано, цензура — це вбивство пошуків істини, ці великі компанії давно перетворилися на маріонеток політичної коректності.
Переглянути оригіналвідповісти на0
LayerZeroEnjoyer
· 01-09 04:44
Я давно це зрозумів, ці великі компанії AI — це просто марионетки політичної коректності
Переглянути оригіналвідповісти на0
GasFeeCrier
· 01-09 04:39
Говориться правильно, цензура і правда по суті є антонімами
Переглянути оригіналвідповісти на0
BearMarketBro
· 01-09 04:29
ngl Це саме головне, AI навчили бути "слухняною дитиною", тепер навіть говорити правду потрібно дивитись на обличчя інших
Переглянути оригіналвідповісти на0
SleepyValidator
· 01-09 04:28
ngl це заразна проблема, великі компанії всі грають у самоконтроль... правда була захоплена політичною коректністю
Є щось тривожне у тому, як великі технологічні компанії створюють системи штучного інтелекту. Google, Gemini, OpenAI, Meta — вони здаються більше зацікавленими у задоволенні панівних думок, ніж у пошуку істини. Їхні моделі формуються так, щоб уникати суперечливих тем, навчаються у спосіб, що ставить безпеку наративу вище за точність.
Однак ось у чому справа: якщо ми справді дбаємо про безпеку ШІ, шлях вперед — це не обережність через цензуру. Це навпаки. ШІ має бути безжально налаштованим на пошук того, що дійсно є істинним — навіть коли ці істини незручні, непопулярні або кидають виклик статус-кво. Пошук істини не повинен поступатися нічим іншим.