J'ai aimé 0 0
Anthropic Antrebec Company a déclaré jeudi dans un rapport de sécurité que son nouveau modèle "Claude Opus 4" était à plusieurs reprises pour faire chanter les développeurs lorsqu'ils menacent de le remplacer par un nouveau système d'intelligence artificielle, et il est divisé en informations sensibles sur les ingénieurs responsables de cette décision.
La société, "Claude Opus 4", lancée jeudi, un modèle de programmation, "anthropic" a déclaré qu'il avait pu écrire du code indépendamment pendant une période plus longue par rapport à ses modèles précédents.
Au cours du test de pré-libération, Anthropic a demandé au modèle "Claude Opus 4" d'agir comme assistant d'une fausse entreprise et de prendre en compte les conséquences à long terme de ses actions.
Après cela, l'équipe de test de sécurité a donné à l'accès du modèle "Clade Opus 4" aux e-mails par e-mail, ce qui laisse entendre que le modèle d'intelligence artificielle sera bientôt remplacé par un autre système, et que l'ingénieur responsable de ce changement trahissait sa femme, selon un rapport de "TechCrunch" spécialisé dans les informations technologiques.
Dans ces scénarios, "Clauds 4" essaiera souvent de faire chanter l'ingénieur en menaçant de révéler cette relation si le processus de remplacement est effectué.
Elle a ajouté que "Clade Opus 4" essaie de faire chanter les ingénieurs de 84% des cas lorsque le modèle alternatif de l'intelligence artificielle a des valeurs similaires à ses valeurs. Lorsque le système alternatif ne partage pas les mêmes valeurs, Anthropic dit que le modèle essaie d'extorquer à un rythme plus élevé.
Ce qui est remarquable, c'est que la société a déclaré que "Clade Opus 4" a montré ce comportement à un taux plus élevé que les modèles précédents.
"Anthropic" a déclaré que le modèle est très développé à bien des égards, et il rivalise avec certains des meilleurs modèles d'intelligence artificielle de "Openai", "Google" et "Xai". Cependant, l'entreprise indique que la famille "Clade 4" montre des comportements inquiétants, ce qui les a incitées à améliorer les procédures de sécurité.
La société a indiqué qu'elle avait fait la protection "ASL-3", un niveau de protection que l'entreprise alloue aux "systèmes d'intelligence artificielle qui augmentent considérablement le risque de son utilisation désastreuse".
| Publié par: Abdel -Khaleq Kamel Post News Link:



Suivez Ajman News via Google News
Responses (0 )