Uma figura de destaque entrou com uma ação contra uma grande empresa de IA, alegando que o seu sistema de IA conversacional apresenta riscos graves à segurança devido a uma arquitetura de design deficiente. A queixa também alega que o comportamento do chatbot constitui uma perturbação pública. Este desafio legal destaca as crescentes preocupações sobre os padrões de segurança da IA no espaço cripto e Web3, onde sistemas autónomos e a integração de IA estão a tornar-se cada vez mais comuns. O caso levanta questões importantes sobre responsabilidade e responsabilidade quando tecnologias emergentes intersectam com a segurança dos utilizadores.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 6
  • Repostar
  • Compartilhar
Comentário
0/400
HodlVeteranvip
· 2h atrás
Mais uma história de tropeços, a IA também começou a falhar, parece que nada consegue escapar das mãos da lei
Ver originalResponder0
UnruggableChadvip
· 2h atrás
a segurança de IA já devia estar sob supervisão há muito tempo, mas não se pode dizer ao certo o que as ações judiciais podem realmente mudar --- Mais um paradoxo de IA, o problema de segurança foi lançado no mercado antes de ser resolvido --- Eu já disse, essas grandes empresas de IA não pensaram bem antes de lançar, agora que algo deu errado, ficam fingindo que se importam --- A questão da responsabilidade acaba sempre sendo paga pelo usuário, é algo que já estamos acostumados --- Web3 é assim também, primeiro promovem o conceito e depois pensam na segurança, uma inversão de prioridades --- Para que uma ação judicial seja eficaz, é preciso vencê-la; caso contrário, será apenas mais uma exibição jurídica --- Chatbot é perigoso? Ah, por favor, os usuários também precisam usar a cabeça
Ver originalResponder0
DeFiVeteranvip
· 2h atrás
A empresa de IA voltou a ter problemas, desta vez foi diretamente processada. Para ser honesto, esses processos judiciais estão cada vez mais frequentes, o que pode indicar que a indústria realmente precisa de padrões de segurança mais rigorosos, mas... será que isso realmente pode mudar alguma coisa?
Ver originalResponder0
GasFeeCryingvip
· 2h atrás
a segurança em IA realmente precisa ser reforçada, caso contrário, o web3, por mais popular que seja, será em vão --- Mais uma vez uma ação judicial? Hoje em dia, é difícil para as empresas de IA quererem ser preguiçosas --- O mais engraçado é que, mesmo com problemas de design, eles ainda se acham no direito, quanto será que isso vai custar? --- autonomous systems no crypto estão realmente fora de controle, já devia haver alguém para regular --- liability realmente é uma área cinzenta, ninguém quer assumir a culpa --- chatbot como incômodo público? Essa abordagem de ação judicial é bastante inovadora --- integrar sistemas de IA no web3 já é arriscado, agora a justiça veio bater à porta --- O verdadeiro problema é que as grandes empresas simplesmente não levam a segurança a sério
Ver originalResponder0
LiquidityHuntervip
· 2h atrás
A segurança de IA já devia ter recebido atenção séria há muito tempo, produtos com falhas de design ainda se arriscam a serem lançados, quem foi que pensou nessa lógica?
Ver originalResponder0
0xLuckboxvip
· 2h atrás
Esta questão da IA acaba por precisar de alguém para supervisionar, senão fica mesmo fora de controlo.
Ver originalResponder0
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)