Une figure notable a déposé une plainte contre une grande entreprise d'IA, affirmant que son système d'IA conversationnelle présente de graves risques pour la sécurité en raison d'une architecture de conception défectueuse. La plainte allègue également que le comportement du chatbot constitue une nuisance publique. Ce défi juridique met en lumière les préoccupations croissantes concernant les normes de sécurité de l'IA dans l'espace crypto et Web3, où les systèmes autonomes et l'intégration de l'IA deviennent de plus en plus courants. L'affaire soulève d'importantes questions sur la responsabilité et la responsabilité lorsque les technologies émergentes croisent la sécurité des utilisateurs.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
7 J'aime
Récompense
7
6
Reposter
Partager
Commentaire
0/400
HodlVeteran
· Il y a 6h
Encore une histoire de piège, l'IA commence aussi à dérailler, il semble que rien ne puisse échapper à la main de la loi
Voir l'originalRépondre0
UnruggableChad
· Il y a 6h
la sécurité de l'IA aurait dû être prise en main depuis longtemps, mais les procès ne changent pas grand-chose à vrai dire
---
Encore un paradoxe de l'IA, le problème de sécurité n'étant pas résolu, elle a été lancée sur le marché
---
Je le disais bien, ces grandes entreprises d'IA ne réfléchissent pas vraiment avant de mettre leurs produits en ligne, ce n’est qu’après qu’elles font semblant de s’en soucier quand il y a des problèmes
---
La responsabilité incombe finalement à l'utilisateur, c’est une chose qu’on voit partout
---
Même dans le web3, on commence par promouvoir des concepts, puis on pense à la sécurité, c’est l’ordre inversé
---
Gagner ce procès ne changera rien, sinon ce sera encore une démonstration juridique
---
Chatbot toxique ? Arrêtez un peu, les utilisateurs doivent aussi faire preuve de bon sens
Voir l'originalRépondre0
DeFiVeteran
· Il y a 6h
La société d'IA a encore eu des problèmes, cette fois elle a été directement poursuivie. Honnêtement, ces types de poursuites deviennent de plus en plus fréquentes, ce qui pourrait indiquer que l'industrie a vraiment besoin de normes de sécurité plus strictes, mais... est-ce que cela peut vraiment changer quelque chose ?
Voir l'originalRépondre0
GasFeeCrying
· Il y a 6h
la sécurité de l'IA doit vraiment être renforcée, sinon le web3 sera voué à l'échec
---
Encore une fois, une action en justice ? De nos jours, il est difficile pour une entreprise d'IA de faire preuve de paresse
---
Ce qui est drôle, c'est que même avec des problèmes de conception, ils restent arrogants, combien devront-ils payer ?
---
les systèmes autonomes qui se baladent dans la crypto sont vraiment hors de contrôle, cela aurait dû être régulé depuis longtemps
---
la responsabilité est vraiment une zone grise, personne ne veut prendre la faute
---
les chatbots comme nuisance publique ? cette perspective de poursuite est plutôt innovante
---
l'intégration de systèmes d'IA dans le web3 comporte déjà de grands risques, maintenant la justice frappe à la porte
---
Le vrai problème, c'est que les grandes entreprises ne prennent pas la sécurité au sérieux
Voir l'originalRépondre0
LiquidityHunter
· Il y a 6h
La sécurité de l'IA aurait dû être prise en main depuis longtemps, sortir des produits avec des défauts de conception, qui a bien pu avoir cette idée ?
Voir l'originalRépondre0
0xLuckbox
· Il y a 7h
L'aspect de l'IA doit finalement être supervisé par quelqu'un, sinon il sera vraiment hors de contrôle.
Une figure notable a déposé une plainte contre une grande entreprise d'IA, affirmant que son système d'IA conversationnelle présente de graves risques pour la sécurité en raison d'une architecture de conception défectueuse. La plainte allègue également que le comportement du chatbot constitue une nuisance publique. Ce défi juridique met en lumière les préoccupations croissantes concernant les normes de sécurité de l'IA dans l'espace crypto et Web3, où les systèmes autonomes et l'intégration de l'IA deviennent de plus en plus courants. L'affaire soulève d'importantes questions sur la responsabilité et la responsabilité lorsque les technologies émergentes croisent la sécurité des utilisateurs.