Uma figura de destaque entrou com uma ação contra uma grande empresa de IA, alegando que o seu sistema de IA conversacional apresenta riscos graves à segurança devido a uma arquitetura de design deficiente. A queixa também alega que o comportamento do chatbot constitui uma perturbação pública. Este desafio legal destaca as crescentes preocupações sobre os padrões de segurança da IA no espaço cripto e Web3, onde sistemas autónomos e a integração de IA estão a tornar-se cada vez mais comuns. O caso levanta questões importantes sobre responsabilidade e responsabilidade quando tecnologias emergentes intersectam com a segurança dos utilizadores.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 7
  • Republicar
  • Partilhar
Comentar
0/400
CommunitySlackervip
· 4h atrás
Mais uma vez, a IA causa problemas, já tinha dito que essa coisa não é confiável Espera aí, esse cara realmente processou a IA na justiça? Isso é meio pesado No Web3, de fato, há muitas irregularidades com IA, parece que ninguém está controlando Será que essa ação judicial vai ganhar? Parece difícil definir a responsabilidade Sobre a segurança da IA, nosso círculo de crypto precisa ficar atento Há muitas falhas... a arquitetura está completamente ruim e ainda assim eles querem lançar Aliás, quem deve pagar por essas coisas? As empresas de IA cedo ou tarde serão reguladas, agora já está assim Então, até a IA pode ser processada agora, o tempo mudou Se realmente condenarem, isso vai afetar toda a indústria? Parece que estão dando um alerta para todas as empresas de IA Pronto, mais uma vez, vamos ouvir uma turma de especialistas jurídicos discutindo
Ver originalResponder0
HodlVeteranvip
· 13h atrás
Mais uma história de tropeços, a IA também começou a falhar, parece que nada consegue escapar das mãos da lei
Ver originalResponder0
UnruggableChadvip
· 13h atrás
a segurança de IA já devia estar sob supervisão há muito tempo, mas não se pode dizer ao certo o que as ações judiciais podem realmente mudar --- Mais um paradoxo de IA, o problema de segurança foi lançado no mercado antes de ser resolvido --- Eu já disse, essas grandes empresas de IA não pensaram bem antes de lançar, agora que algo deu errado, ficam fingindo que se importam --- A questão da responsabilidade acaba sempre sendo paga pelo usuário, é algo que já estamos acostumados --- Web3 é assim também, primeiro promovem o conceito e depois pensam na segurança, uma inversão de prioridades --- Para que uma ação judicial seja eficaz, é preciso vencê-la; caso contrário, será apenas mais uma exibição jurídica --- Chatbot é perigoso? Ah, por favor, os usuários também precisam usar a cabeça
Ver originalResponder0
DeFiVeteranvip
· 13h atrás
A empresa de IA voltou a ter problemas, desta vez foi diretamente processada. Para ser honesto, esses processos judiciais estão cada vez mais frequentes, o que pode indicar que a indústria realmente precisa de padrões de segurança mais rigorosos, mas... será que isso realmente pode mudar alguma coisa?
Ver originalResponder0
GasFeeCryingvip
· 13h atrás
a segurança em IA realmente precisa ser reforçada, caso contrário, o web3, por mais popular que seja, será em vão --- Mais uma vez uma ação judicial? Hoje em dia, é difícil para as empresas de IA quererem ser preguiçosas --- O mais engraçado é que, mesmo com problemas de design, eles ainda se acham no direito, quanto será que isso vai custar? --- autonomous systems no crypto estão realmente fora de controle, já devia haver alguém para regular --- liability realmente é uma área cinzenta, ninguém quer assumir a culpa --- chatbot como incômodo público? Essa abordagem de ação judicial é bastante inovadora --- integrar sistemas de IA no web3 já é arriscado, agora a justiça veio bater à porta --- O verdadeiro problema é que as grandes empresas simplesmente não levam a segurança a sério
Ver originalResponder0
LiquidityHuntervip
· 13h atrás
A segurança de IA já devia ter recebido atenção séria há muito tempo, produtos com falhas de design ainda se arriscam a serem lançados, quem foi que pensou nessa lógica?
Ver originalResponder0
0xLuckboxvip
· 14h atrás
Esta questão da IA acaba por precisar de alguém para supervisionar, senão fica mesmo fora de controlo.
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)