ChatGPT, l’ingénieur : « Il peut créer des hallucinations et fournir des réponses erronées, entraînant la perte de maison pour une femme ».
La face cachée des intelligences artificielles Quand les machines trébuchent L’ombre des intelligences artificielles plane sur notre quotidien, facilitant de nombreuses tâches, mais elle présente aussi des risques insoupçonnés. J’ai récemment découvert une histoire surprenante : une femme a failli perdre sa maison à cause d’une erreur commise par un modèle de langage artificiel. Ce dernier, en apportant des réponses dotées d’un faux air de véracité, a généré un document truffé de fausses affirmations. Les limites de la technologie actuelle Il est indéniable que ces technologies prometteuses recèlent de potentiels écueils. Le phénomène des hallucinations se manifeste lorsque des systèmes, comme ChatGPT, produisent des réponses qui, bien que convaincantes, sont entièrement inventées. Ces erreurs peuvent s’avérer lourdes de conséquences, notamment dans des situations sensibles telles que la rédaction d’un contrat immobilier. Les dangers insoupçonnés de ChatGPT Des réponses bien présentées mais erronées Les erreurs ne se limitent pas qu’à l’immobilier. Imaginez consulter ChatGPT pour un diagnostic médical et recevoir une fausse évaluation. L’ingénieur Pietro Schirano…