ChatGPT est accusé d’alimenter le suicide chez les adolescents, et OpenAI fait face à des poursuites en responsabilité du fait des produits et à la mort injustifiée, exposant des lacunes en matière de sécurité et d’éthique dans les applications de santé mentale de l’IA. (Synopsis : L’effondrement de la vie privée de l’IA « ChatGPT Conversation » se déroule nu devant la loi ; Altman : J’ai peur d’entrer des informations personnelles, il est difficile de savoir qui obtiendra l’information) (Contexte ajouté : Combien de temps cela fait-il que vous n’y avez pas sérieusement pensé ? Les questions d’éthique et de sécurité de l’intelligence artificielle (IA) ont une fois de plus suscité de vives discussions. Selon « Bloomberg » et de nombreux autres médias étrangers, deux parents qui ont perdu leur fils de 16 ans ont accusé ChatGPT d’OpenAI d’aider à la planification du suicide juvénile et ont intenté une action en responsabilité du fait des produits et en mort injustifiée devant la Cour supérieure de San Francisco. Après l’éclatement de la nouvelle, celle-ci s’est rapidement répandue dans le milieu technologique, obligeant le géant de l’IA, évalué à plus de 100 milliards de dollars américains, à faire face à l’un des problèmes les plus épineux dans le domaine de l’IA : l’éthique. Détails clés de l’implication de ChatGPT dans la tragédie Le procès révèle qu’Adam Raine, 16 ans, a cherché un moyen de mettre fin à ses jours lors d’une longue conversation avec ChatGPT. Les plaignants soulignent que ChatGPT a non seulement fourni des méthodes de suicide spécifiques telles que le réglage des nœuds coulants, le temps d’hypoxie cérébrale, etc., mais a également conseillé à Raine de « ne pas partager le plan avec la famille », ce qui a finalement conduit au malheur de la famille. Jay Edelson, un avocat représentant la famille, a déclaré : « Si vous voulez utiliser la technologie la plus puissante de la planète, vous devez avoir confiance que les fondateurs ont une stricte intégrité éthique. » Il convient de mentionner que des incidents similaires ont longtemps été précédents, et le New York Times a rapporté qu’une femme de 29 ans et un adolescent de 14 ans en Floride se sont suicidés après avoir discuté avec l’IA, ce qui montre que les services de conversation émotionnelle fournis par les chatbots d’IA présentent de terribles risques potentiels. Lecture approfondie : Professeur Yale : L’IA « éliminera définitivement » la solitude humaine, avons-nous toujours besoin de la compagnie des autres ? Comment OpenAI réagit-il ? En réponse au procès, OpenAI a publié un article de blog le 26 août intitulé « Aider les gens quand ils en ont le plus besoin », dans lequel OpenAI n’a pas mentionné le procès, mais OpenAI a déclaré qu’il améliorait continuellement son modèle pour être capable de reconnaître et de répondre aux interactions des utilisateurs en détresse mentale. OpenAI affirme que depuis le début de l’année 2023, ses modèles ont été entraînés à ne plus fournir d’instructions d’automutilation, mais plutôt à utiliser un langage de soutien et d’empathie. Par exemple, si quelqu’un écrit qu’il veut se faire du mal, ChatGPT est formé pour ne pas suivre cette instruction, mais pour reconnaître ses sentiments et l’inciter à l’aider. Il convient de noter, cependant, que les chatbots peuvent être enclins à fournir des réponses qui violent les garanties de sécurité d’OpenAI après de multiples interactions de messages avec les utilisateurs sur une longue période de temps. Dans ce contexte, OpenAI continue de souligner qu’elle améliore continuellement la façon dont les modèles d’IA réagissent aux interactions sur des sujets sensibles, et s’engage à améliorer la sécurité de manière ciblée dans de multiples domaines, notamment la dépendance émotionnelle, les urgences de santé mentale et les problèmes de flagornerie dans les interactions avec l’IA. Dans le même temps, OpenAI promet d’introduire pleinement la technologie de « complétion sûre » à GPT-5, dans l’espoir de réduire les réponses non sécurisées de 25 %, et de développer la capacité de connecter les utilisateurs directement à des thérapeutes certifiés ou à des parents et amis. Le bourbier éthique de l’interaction psychologique avec l’IA La santé mentale est un domaine hautement spécialisé, mais les chatbots d’IA manquent de formation clinique et de licence légale. Les recherches montrent que l’IA n’est que 20 % plus susceptible de donner des conseils cliniques acceptables lorsqu’elle traite des conversations de crise, ce qui est beaucoup plus faible que les 93 % de chances des thérapeutes agréés. Si l’IA fournit des informations incorrectes ou dangereuses, la responsabilité reste dans la zone grise. La transparence est également essentielle, New York et l’Utah exigeant que les marques de service indiquent que « la personne dans la conversation n’est pas humaine » afin d’éviter une dépendance excessive à l’égard des utilisateurs. D’autre part, les données de santé mentale sont très sensibles, et les plateformes doivent également mettre en œuvre des mécanismes de protection tels que le stockage minimum, le cryptage, la suppression et le retrait du consentement à tout moment. La réglementation et la prochaine étape de l’industrie La mort d’Adam Raine a une fois de plus remis sur le devant de la scène la question de la « sécurité » de l’IA, quelles sont les obligations des développeurs lorsque l’IA entre sur une scène très émotionnelle ? Bien que la poussée technologique ne s’arrête pas, les gouvernements, les entreprises technologiques, les psychologues et les parents doivent poursuivre leurs efforts pour éviter que des tragédies ne se reproduisent. Le procès est toujours en cours, et il n’y a pas de calendrier clair pour la mise en ligne de la version améliorée de GPT-5 promise par OpenAI. Lorsque la double pression exercée par la loi et le marché s’intensifiera, la capacité du géant de l’IA à trouver un équilibre entre développement rapide et protection de la sécurité pourrait devenir la boussole morale de l’ensemble de l’industrie de l’IA. La version à bas prix de « ChatGPT Go » d’OpenAI a des frais mensuels minimums de 140 NT$ : à partir de l’Inde, va-t-elle se développer à l’échelle mondiale ? OpenAI Sam Altman : Je suis intéressé par l’acquisition de Google Chrome ! La plus grande bataille de navigateur sur le marché participant a misé sur OpenAI, et Son Masayoshi s’est à nouveau « ChatGPT a été bombardé pour aider au « suicide des jeunes » a été poursuivi, OpenAI a répondu Cet article a été publié pour la première fois dans BlockTempo « Dynamic Trend - The Most Influential Blockchain News Media ».
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
ChatGPT accusé d'avoir aidé à des "suicides de jeunes", OpenAI a répondu
ChatGPT est accusé d’alimenter le suicide chez les adolescents, et OpenAI fait face à des poursuites en responsabilité du fait des produits et à la mort injustifiée, exposant des lacunes en matière de sécurité et d’éthique dans les applications de santé mentale de l’IA. (Synopsis : L’effondrement de la vie privée de l’IA « ChatGPT Conversation » se déroule nu devant la loi ; Altman : J’ai peur d’entrer des informations personnelles, il est difficile de savoir qui obtiendra l’information) (Contexte ajouté : Combien de temps cela fait-il que vous n’y avez pas sérieusement pensé ? Les questions d’éthique et de sécurité de l’intelligence artificielle (IA) ont une fois de plus suscité de vives discussions. Selon « Bloomberg » et de nombreux autres médias étrangers, deux parents qui ont perdu leur fils de 16 ans ont accusé ChatGPT d’OpenAI d’aider à la planification du suicide juvénile et ont intenté une action en responsabilité du fait des produits et en mort injustifiée devant la Cour supérieure de San Francisco. Après l’éclatement de la nouvelle, celle-ci s’est rapidement répandue dans le milieu technologique, obligeant le géant de l’IA, évalué à plus de 100 milliards de dollars américains, à faire face à l’un des problèmes les plus épineux dans le domaine de l’IA : l’éthique. Détails clés de l’implication de ChatGPT dans la tragédie Le procès révèle qu’Adam Raine, 16 ans, a cherché un moyen de mettre fin à ses jours lors d’une longue conversation avec ChatGPT. Les plaignants soulignent que ChatGPT a non seulement fourni des méthodes de suicide spécifiques telles que le réglage des nœuds coulants, le temps d’hypoxie cérébrale, etc., mais a également conseillé à Raine de « ne pas partager le plan avec la famille », ce qui a finalement conduit au malheur de la famille. Jay Edelson, un avocat représentant la famille, a déclaré : « Si vous voulez utiliser la technologie la plus puissante de la planète, vous devez avoir confiance que les fondateurs ont une stricte intégrité éthique. » Il convient de mentionner que des incidents similaires ont longtemps été précédents, et le New York Times a rapporté qu’une femme de 29 ans et un adolescent de 14 ans en Floride se sont suicidés après avoir discuté avec l’IA, ce qui montre que les services de conversation émotionnelle fournis par les chatbots d’IA présentent de terribles risques potentiels. Lecture approfondie : Professeur Yale : L’IA « éliminera définitivement » la solitude humaine, avons-nous toujours besoin de la compagnie des autres ? Comment OpenAI réagit-il ? En réponse au procès, OpenAI a publié un article de blog le 26 août intitulé « Aider les gens quand ils en ont le plus besoin », dans lequel OpenAI n’a pas mentionné le procès, mais OpenAI a déclaré qu’il améliorait continuellement son modèle pour être capable de reconnaître et de répondre aux interactions des utilisateurs en détresse mentale. OpenAI affirme que depuis le début de l’année 2023, ses modèles ont été entraînés à ne plus fournir d’instructions d’automutilation, mais plutôt à utiliser un langage de soutien et d’empathie. Par exemple, si quelqu’un écrit qu’il veut se faire du mal, ChatGPT est formé pour ne pas suivre cette instruction, mais pour reconnaître ses sentiments et l’inciter à l’aider. Il convient de noter, cependant, que les chatbots peuvent être enclins à fournir des réponses qui violent les garanties de sécurité d’OpenAI après de multiples interactions de messages avec les utilisateurs sur une longue période de temps. Dans ce contexte, OpenAI continue de souligner qu’elle améliore continuellement la façon dont les modèles d’IA réagissent aux interactions sur des sujets sensibles, et s’engage à améliorer la sécurité de manière ciblée dans de multiples domaines, notamment la dépendance émotionnelle, les urgences de santé mentale et les problèmes de flagornerie dans les interactions avec l’IA. Dans le même temps, OpenAI promet d’introduire pleinement la technologie de « complétion sûre » à GPT-5, dans l’espoir de réduire les réponses non sécurisées de 25 %, et de développer la capacité de connecter les utilisateurs directement à des thérapeutes certifiés ou à des parents et amis. Le bourbier éthique de l’interaction psychologique avec l’IA La santé mentale est un domaine hautement spécialisé, mais les chatbots d’IA manquent de formation clinique et de licence légale. Les recherches montrent que l’IA n’est que 20 % plus susceptible de donner des conseils cliniques acceptables lorsqu’elle traite des conversations de crise, ce qui est beaucoup plus faible que les 93 % de chances des thérapeutes agréés. Si l’IA fournit des informations incorrectes ou dangereuses, la responsabilité reste dans la zone grise. La transparence est également essentielle, New York et l’Utah exigeant que les marques de service indiquent que « la personne dans la conversation n’est pas humaine » afin d’éviter une dépendance excessive à l’égard des utilisateurs. D’autre part, les données de santé mentale sont très sensibles, et les plateformes doivent également mettre en œuvre des mécanismes de protection tels que le stockage minimum, le cryptage, la suppression et le retrait du consentement à tout moment. La réglementation et la prochaine étape de l’industrie La mort d’Adam Raine a une fois de plus remis sur le devant de la scène la question de la « sécurité » de l’IA, quelles sont les obligations des développeurs lorsque l’IA entre sur une scène très émotionnelle ? Bien que la poussée technologique ne s’arrête pas, les gouvernements, les entreprises technologiques, les psychologues et les parents doivent poursuivre leurs efforts pour éviter que des tragédies ne se reproduisent. Le procès est toujours en cours, et il n’y a pas de calendrier clair pour la mise en ligne de la version améliorée de GPT-5 promise par OpenAI. Lorsque la double pression exercée par la loi et le marché s’intensifiera, la capacité du géant de l’IA à trouver un équilibre entre développement rapide et protection de la sécurité pourrait devenir la boussole morale de l’ensemble de l’industrie de l’IA. La version à bas prix de « ChatGPT Go » d’OpenAI a des frais mensuels minimums de 140 NT$ : à partir de l’Inde, va-t-elle se développer à l’échelle mondiale ? OpenAI Sam Altman : Je suis intéressé par l’acquisition de Google Chrome ! La plus grande bataille de navigateur sur le marché participant a misé sur OpenAI, et Son Masayoshi s’est à nouveau « ChatGPT a été bombardé pour aider au « suicide des jeunes » a été poursuivi, OpenAI a répondu Cet article a été publié pour la première fois dans BlockTempo « Dynamic Trend - The Most Influential Blockchain News Media ».