L'Oriental — Actualités et regard complet sur l'Orient | Média & Journal FrancophoneL'oriental vous offre un regard complet sur l'Orient. Suivez l'actualité politique, économique et culturelle du Moyen-Orient, d'Afrique du Nord et d'Asie.

L’intelligence artificielle échoue dans les tâches financières quotidiennes. Quelle est l’histoire? | technologie

Depuis l’émergence de « Chat BT » à la fin de 2022 et au début de l’année suivante, les voix sont venues de différentes parties du monde dans divers emplois de peur que cette technologie ne saisisse les emplois dans le monde, qui sont des voix qui ne dissumaient pas les entreprises de développer de plus en […]

L’intelligence artificielle échoue dans les tâches financières quotidiennes. Quelle est l’histoire? | technologie

Depuis l'émergence de "Chat BT" à la fin de 2022 et au début de l'année suivante, les voix sont venues de différentes parties du monde dans divers emplois de peur que cette technologie ne saisisse les emplois dans le monde, qui sont des voix qui ne dissumaient pas les entreprises de développer de plus en plus ces modèles afin d'augmenter leurs capacités.

Afin de mesurer ces capacités, les entreprises effectuent des tests continus, qui sont les tests dans lesquels les modèles d'intelligence artificielle réussissent, mais ces succès étaient une raison de soulever les doutes de Ryan Krishnan, qui a décidé plus tard de créer une entreprise et l'a appelé "Vals AI".

"Valus AI" cherche à tester les modèles d'intelligence artificielle indépendamment et loin des entreprises, à travers un ensemble de tests intensifs pour être certain de la qualité de ces modèles et découvrir leurs faiblesses. Selon les tests effectués par "Valus AI" sur 22 modèles généraux d'intelligence artificielle de "OBEN AI", "Google", anthropic "," X "et d'autres, tous ces modèles enregistrés moins de 50% dans les tests de précision liés à l'analyse et à divers aspects financiers, et il convient de noter que ces tests ne se sont pas déroulés, comment cela s'est produit, comment cela s'est produit?

Un écart entre la base de données de la formation et des utilisations réelles

Krishnan estime que les allégations liées à la qualité et à la précision des modèles d'intelligence artificielle manquent de précision, car elles proviennent directement de la société développée pour le modèle en l'absence d'outils d'audit et d'évaluation externes, de sorte qu'une solution externe aurait dû évaluer les différents modèles et outils d'intelligence artificielle.

S'adressant au Washington Post, Kirchcan a souligné que la plupart des modèles d'intelligence artificielle sont formés sur la recherche scientifique et les articles purement de recherche, et ils n'ont souvent pas de réalité et d'utilisation quotidienne, et donc les résultats sont scientifiquement bons mais pratiquement mauvais.

Cette valusai a provoqué le développement d'un test d'intelligence artificielle de 500 questions à l'aide de l'une des principales institutions financières afin de construire un test efficace dans le secteur financier spécifiquement, et de déterminer le niveau de qualité et de précision des modèles d'intelligence artificielle.

Il a également ajouté que la plupart des tests d'intelligence artificielle ont lieu à travers un ensemble de questions générales et de données scientifiques contenues dans les articles de recherche, qui sont des données disponibles pour la plupart des modèles d'intelligence artificielle dans le monde et sont accessibles très facilement, ce qui rend les résultats des tests toujours positifs.

Lors du test effectué par "Valus AI", Krishnan a déclaré que le test comprenait un ensemble de tâches diverses et de base pour tous ceux qui travaillent sur les marchés financiers et même les journalistes qui couvrent le monde de l'argent en permanence jusqu'à ce qu'ils aient une expérience suffisante. Le test comprenait des questions telles que la recherche d'informations dans les systèmes "Edgar" pour stocker des données dans les entreprises, ou même la base de données des valeurs mobilières et des autorités boursières à la disposition du public qui contiennent des fichiers des entreprises, tous des ressources que les analystes et les experts utilisent et ont besoin quotidiennement.

Moins de 50% pour tous les modèles

Selon le rapport "Washington Post", le test de valeur de l'aliération a abouti à de faibles résultats des modèles d'intelligence artificielle dont les résultats n'ont pas été dépassés 50% du total des résultats du test. Par exemple, le dernier modèle OPPO de l'entreprise permet à la société d'atteindre un résultat de 48,3%, bien qu'il soit dédié à ce type de recherche et d'informations.

En termes de modèle moderne "Claude Sonnet 3.7", le modèle a pu atteindre 44,1%. Quant à LLMA, les trois LLMA "morts", leurs résultats ont été très décevants, car leurs résultats ne dépassaient pas 10% dans tous les tests.

Bien sûr, ces sociétés ont ignoré les tests "Valus AI" et ont refusé de les commenter complètement, que ce soit par "Oben AI" ou d'autres sociétés qui ont pleinement ignoré les résultats des tests.

La plupart des modèles d'intelligence artificielle sont formés sur des articles de recherche scientifique et purement de recherche (Stradstock)
Pourquoi ces mauvais résultats sont-ils?

Il existe de nombreuses raisons logiques qui rendent les résultats de l'intelligence artificielle mauvais à ce degré, en commençant par la dépendance de l'intelligence artificielle à l'égard d'un groupe de matériaux inexacts dans les tests et même des matériaux purement scientifiques qui ne répondent pas aux vraies questions dont les experts ont besoin.

En revanche, l'entreprise s'est appuyée sur des experts pour construire sa bibliothèque de questions, sans fournir le formulaire avec les documents et la formation nécessaires pour atteindre ces résultats, car les questions étaient directement dirigés vers les formulaires sans leur fournir un contexte réel.

Une nouvelle tendance dans le monde de l'intelligence artificielle

La Fallis AI Company est l'une des nouvelles startups du secteur de l'intelligence artificielle, qui cherche à être certain et à vérifier les résultats de différents tests de modèles et à un examen minutieux des modèles, en tant que réponse directe à la diversité des modèles d'intelligence artificielle et à la présentation de beaucoup d'entre elles constamment.

Krishnan estime que s'appuyer sur les tests des entreprises externes telles que "Valusai" est le seul moyen de développer des modèles d'intelligence artificielle et de créer de vrais robots de chat capables d'aider les utilisateurs dans les vrais défis auxquels ils sont confrontés.

Dans ce cas, l'intelligence artificielle ne remplacera pas les humains, mais sera plutôt un outil pour faciliter les performances du travail et la terminer en un temps rapide et légitime, à condition que les résultats soient exacts et que les experts puissent dépendre d'eux.

L'intelligence artificielle remplace-t-elle complètement les humains?

En février dernier, Bill Gates, le fondateur de Microsoft, a déclaré que l'intelligence artificielle remplacerait de nombreuses fonctions humaines telles que les médecins et les enseignants, qui était soutenu par Victor Lazara, l'investisseur le plus éminent dans de nombreuses sociétés techniques, car il a déclaré que l'intelligence artificielle ne se limitera pas à promouvoir les tâches humaines uniquement.

Mais à quel point ces théories et déclarations sont vraies à la lumière des résultats des tests "Valus Ai" qui se sont révélés raccourcir les capacités de l'intelligence artificielle dans certains domaines?

J
WRITTEN BY

Joseph Levy

En tant que Responsable Société et Culture, Joseph Levy explore les histoires humaines, les phénomènes sociaux et la richesse culturelle de l'Orient. Son travail vise à donner une profondeur humaine et contextuelle à l'actualité traitée par L'oriental.

Responses (0 )



















Newsletter L'oriental

Restez informé sur l'Orient avec L'oriental. Analyses quotidiennes, reportages et décryptages de l'actualité du Moyen-Orient et d'Asie.

Related posts