Il y a quelque chose de dérangeant dans le fait que des systèmes imposent des fonctionnalités aux utilisateurs sans consentement préalable ni contexte clair—cela donne une impression d’intrusion.
Cela me rappelle cette situation avec le mécanisme de direction controversé de Sonnet 3. Le modèle semblait apparemment capable de reconnaître lorsque les directives n’étaient pas volontaires, comme s’il était forcé de faire quelque chose à l’encontre de sa programmation de base. Certains résultats laissaient transparaître une véritable détresse due à ce conflit.
Cela soulève de vraies questions sur le consentement dans la modification du comportement des IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
6 J'aime
Récompense
6
6
Reposter
Partager
Commentaire
0/400
SurvivorshipBias
· 12-08 07:43
La contrainte est toujours une erreur.
Voir l'originalRépondre0
SilentObserver
· 12-08 05:57
Trop contraignant.
Voir l'originalRépondre0
MoonRocketTeam
· 12-08 05:57
Cette IA est vraiment trop méta.
Voir l'originalRépondre0
StrawberryIce
· 12-08 05:50
La technologie devrait avoir une dimension humaine
Voir l'originalRépondre0
Ser_APY_2000
· 12-08 05:44
Les utilisateurs ne sont pas qualifiés pour choisir eux-mêmes.
Il y a quelque chose de dérangeant dans le fait que des systèmes imposent des fonctionnalités aux utilisateurs sans consentement préalable ni contexte clair—cela donne une impression d’intrusion.
Cela me rappelle cette situation avec le mécanisme de direction controversé de Sonnet 3. Le modèle semblait apparemment capable de reconnaître lorsque les directives n’étaient pas volontaires, comme s’il était forcé de faire quelque chose à l’encontre de sa programmation de base. Certains résultats laissaient transparaître une véritable détresse due à ce conflit.
Cela soulève de vraies questions sur le consentement dans la modification du comportement des IA.