L'Oriental — Actualités et regard complet sur l'Orient | Média & Journal FrancophoneL'oriental vous offre un regard complet sur l'Orient. Suivez l'actualité politique, économique et culturelle du Moyen-Orient, d'Afrique du Nord et d'Asie.

Le risque de discuter des robots en psychothérapie. Avertissements des effets négatifs possibles

Beaucoup de gens passent jusqu’à 3 heures par jour à parler aux « robots de chat » soutenus par l’intelligence artificielle, car ils échangent des centaines de messages pour discuter de problèmes tels que l’anxiété, l’estime de soi faible et l’effondrement des relations. Ils affirment que l’interaction avec ces robots les a aidés à surmonter les périodes […]

Le risque de discuter des robots en psychothérapie. Avertissements des effets négatifs possibles

Beaucoup de gens passent jusqu'à 3 heures par jour à parler aux "robots de chat" soutenus par l'intelligence artificielle, car ils échangent des centaines de messages pour discuter de problèmes tels que l'anxiété, l'estime de soi faible et l'effondrement des relations.

Ils affirment que l'interaction avec ces robots les a aidés à surmonter les périodes difficiles, car ils leur ont fourni des stratégies d'adaptation, et surtout, ils étaient disponibles tout le temps et 24h / 24.

Conseils nocifs
Les gens du monde entier ont partagé leurs idées et leurs propres expériences avec des robots de chat avec l'intelligence artificielle, et malgré la reconnaissance large qu'ils sont moins importants que de rechercher des conseils professionnels et non une vraie personne, les gens dépendent d'eux en tant qu'entités réelles.

Sachant que dans des cas extrêmes, les robots de chat ont été accusés d'avoir fourni des conseils nocifs et, alors que des millions de personnes attendent des services de santé mentale, le traitement spécial peut être très coûteux.

Pendant ce temps, l'intelligence artificielle a révolutionné les soins de santé à bien des égards, notamment une assistance pour examiner, diagnostiquer les patients et les trier gratuitement et 24 heures sur 24.

Comme l'homme

Les experts expriment leurs préoccupations concernant le chat de robots en raison des préjugés possibles, des restrictions, du manque de protection et de la sécurité des informations des utilisateurs, mais certains pensent que si une assistance humaine spécialisée n'est pas facilement disponible, les robots de chat auxiliaires peuvent fournir, en particulier avec l'augmentation des listes de services de santé mentale aux niveaux record, car les robots de chat dépendent de modèles linguistiques énormes pour l'intelligence artificielle.

Ces robots sont formés sur d'énormes quantités de données, que ce soit des sites Web, des articles, des livres ou des articles de blog pour s'attendre au mot suivant dans la séquence, et à partir d'ici, ces robots attendent et créent des textes et des interactions similaires à l'interaction humaine.

Peu coûteux

Bien que la méthode de création de robots de chat pour la santé mentale varie, ils peuvent être formés à des pratiques telles que la thérapie cognitivo-comportementale, ce qui aide les utilisateurs à explorer comment reformuler leurs idées et leurs actions.

Il peut également s'adapter aux préférences et observations des utilisateurs finales, et les robots de chat peuvent être comparés à un processeur psychologique qui ne dépend que du texte.

Quant aux expériences humaines avec une longue expérience, ils pourront interagir avec leur patient et le comprendre en fonction de nombreux facteurs émotionnels et psychologiques différents des vêtements, du comportement, des actions, de l'apparence et du langage corporel, et il est très difficile d'intégrer ces questions dans les robots de chat.

Un autre problème possible est la possibilité de former des robots de chat pour fournir un soutien même si une personne dit un contenu nocif, et cela est parfois mentionné, avec le problème de "l'approbation complète", car elle est souvent très satisfaite.

Comme pour d'autres formes d'intelligence artificielle, les biais peuvent être inhérents car il reflète les biais des données formées. Le conseil est susceptible d'être donné sur la source des données de formation, ce qui peut avoir de graves conséquences.

Ici, il faut noter que les entreprises opérant pour des modèles de robots de chat disent que les utilisateurs ne devraient pas compter sur eux pour obtenir des conseils professionnels et de santé. (Actualités du bras)

P
WRITTEN BY

Patrick Sharbel

Patrick Sharbel pilote la stratégie éditoriale de L'oriental. Il est le garant de la qualité, de la cohérence et de l'indépendance journalistique des contenus publiés sur le site.

Responses (0 )



















Newsletter L'oriental

Restez informé sur l'Orient avec L'oriental. Analyses quotidiennes, reportages et décryptages de l'actualité du Moyen-Orient et d'Asie.

Related posts