• Principal
  • Autre
  • L'IA se rapproche étrangement des données de Star Trek: TNG maintenant qu'elle sait si vous pouvez ou non lui faire confiance

L'IA se rapproche étrangement des données de Star Trek: TNG maintenant qu'elle sait si vous pouvez ou non lui faire confiance

Quel Film Voir?
 
>

Ce n'est peut-être pas aussi conscient que les données de Star Trek : TNG (encore), d'autant plus que ce droïde pourrait mieux s'occuper d'un chat que certains humains, mais l'IA a maintenant atteint le point de se rendre compte qu'elle n'est pas digne de confiance.



Ce qu'on appelle maintenant régression probante profonde a amélioré la conscience de soi de l'IA. Il saura quand il a plus de chances de commettre une erreur de prédiction, en fonction de l'évaluation de la fiabilité des données qu'il examine. Les prédictions futures sont plus susceptibles de fonctionner si elles sont influencées par des données plus complètes et précises. Le contraire signifie que les choses vont probablement mal tourner – et l'IA peut le sentir. Lorsqu'il estime sa certitude à propos de quelque chose, cette certitude va monter et descendre en fonction des données dont il est alimenté. L'IA peut alors déterminer le risque ou l'incertitude avec une précision de 99%.

Il semble que même Picard serait impressionné – mais attendez. Il n'y a qu'un seul inconvénient aux robots conscients d'eux-mêmes, et c'est que 99% n'est pas une certitude totale, peu importe à quel point c'est proche. Un écart de seulement 1% pourrait signifier une catastrophe dans des scénarios potentiellement mortels, de la conduite d'une voiture autonome à la chirurgie. Angoissant.







mon ex petit ami m'a dit de passer à autre chose

Bien que la [régression probante profonde] présente plusieurs avantages par rapport aux approches existantes, ses principales limites résident dans le réglage du coefficient de régularisation et dans la suppression efficace des preuves non trompeuses lors du calibrage de l'incertitude, a déclaré le doctorat du MIT. étudiant Alexandre Amini , qui a dirigé une étude qu'il présentera lors de la conférence NeurIPS du mois prochain.

Ce qu'Amini et son équipe ont réussi à faire est encore assez remarquable. Avant cela, l'utilisation de l'IA pour estimer l'incertitude était non seulement coûteuse, mais beaucoup trop lente pour les décisions qui doivent être prises en quelques fractions de seconde. Les réseaux de neurones peuvent être si immenses qu'il peut leur falloir une éternité pour calculer une réponse, et l'attente pour connaître le niveau de confiance serait trop longue pour même se donner la peine de faire l'effort. Il serait inutile d'utiliser quelque chose comme ça dans un soi. -une voiture au volant qui a besoin de savoir quel virage prendre tout de suite. Le processus a été accéléré par une profonde régression probante. Ce réseau de neurones n'a besoin de s'exécuter qu'une seule fois pour connaître le niveau d'incertitude.

quel âge a sept super fille

En devinant l'incertitude dans un modèle que l'IA a déjà appris, elle peut nous dire approximativement quelle est la marge d'erreur. L'IA utilise des preuves pour étayer son estimation. Ces preuves incluent toute incertitude qui se cache soit dans les données qui viennent d'être analysées par le réseau de neurones, soit dans sa conscience de sa confiance dans sa propre décision. Amini et son équipe ont testé la méthode de régression probante profonde en entraînant l'IA à estimer la profondeur de chaque pixel d'une image. La perception de la profondeur pourrait signifier la vie ou la mort dans une chirurgie qui doit enlever une tumeur qui peut être située profondément à l'intérieur du corps et difficile à voir autrement.

L'IA était pour la plupart précise, mais ça a foiré une fois qu'il était alimenté d'images plus difficiles à retenir. Au moins, il y avait une chose sur laquelle il était cohérent : face à des images qui lui posaient problème, il informait l'équipe de son incertitude sans faute. Sa marge d'erreur déterminée peut au moins enseigner aux chercheurs comment améliorer ce modèle. Sa capacité à reconnaître les images qui ont été photoshopées ouvre également la possibilité de reconnaître les deepfakes. Les humains doivent juste être conscients que ce cerveau de robot est toujours faillible, et nous ne pouvons pas lui faire plus confiance qu'il ne peut se faire confiance.

Nous pensons qu'une enquête plus approfondie est justifiée pour découvrir d'autres moyens de supprimer les preuves non trompeuses, Amini a dit .

Cela signifie que l'IA qui peut penser en utilisant une régression probante profonde est assez fiable tant que le résultat d'une mauvaise réponse ne serait pas mortel.

la manifestation est-elle dangereuse