Gui a écrit : ↑mar. 10 oct. 2017 20:58
Wait...es-tu docteur en informatique ou AI safety ?
Si oui je veux bien que tu rectifies ce que j'ai compris de l'etat de l'art sur le sujet.
Bon alors déjà en terme d'état de l'art, on en est aujourd'hui essentiellement au stade des méthodes à apprentissage. Ce qui veut dire qu'on entraîne des IA à faire une tâche précise à partir d'un grand nombre d'exemples qu'on leur soumet. Genre "regarde ça c'est un chien, ça c'est un chat, ça c'est encore un chat, ça c'est un chien, ..." et à la fin le truc sait reconnaître un chien d'un chat. Mais montre lui un hamster et il est largué. Ca s'appelle de l'IA mais on est loin d'une véritable intelligence autonome, consciente d'elle-même, capable d'abstractions etc.
Donc si je dis que le risque Skynet n'est pas prioritaire, c'est déjà parce qu'il y a pas mal de chemin à faire pour seulement s'en approcher, et à vrai dire la voie principale aujourd'hui n'est pas la plus susceptible d'y parvenir. Et puis honnêtement ce n'est pas non plus le risque le plus complexe à gérer, certes il faut y penser mais tout ce dont t'as besoin c'est un fusible à faire péter pour arrêter la machine si elle s'emballe.
Après pourquoi les autres risques sont plus préoccupants, c'est parce qu'ils apparaissent déjà aujourd'hui, et reposent pour la plupart sur le facteur humain, ou la façon dont l'humain va utiliser ces outils.
Un problème de fond, c'est que ces IA sont des boîtes noires. Tu leur demandes pourquoi elles ont pris cette décision, elles te diront "sais pas, c'est comme ça" (enfin elles ne le diront pas mais c'est tout ce qu'elles pourraient dire
). Ce qui fait qu'il n'est pas possible de contester une décision particulière faite par une IA. En problème annexe, vu que c'est une boîte noire quelqu'un pourrait imposer ses propres décisions en les faisant passer pour celles de l'IA. C'est le même problème que le piratage des drones, le problème n'est pas tant l'IA mais la vulnérabilité face à une action humaine. (y a une nouvelle marrante d'Asimov à ce sujet, où les mecs pensent qu'une guerre du futur a été gagnée grâce aux décisions d'un ordinateur, alors que c'était juste un ingénieur qui jouait à pile ou face).
Un autre problème encore plus profond, c'est que les IA sont des machines à faire des stéréotypes, de par leur conception même. Elles ont comme priorité première d'ignorer les cas exceptionnels pour extraire des tendances générales. Une IA n'a jamais 100% de bonnes décisions parce que 100% c'est considéré comme une erreur d'apprentissage, donc il y aura toujours des lésés. Sur un plan logique et statistique, c'est pas grave, parce que ça n'arrive pas souvent. Sur un plan moral, celui qui a le malheur d'être différent de la norme l'aura toujours dans los, et c'est plus que discutable (une de mes règles d'or : ne jamais appliquer de statistiques à un individu. Ca vaut pour les IA aussi).
Donc pour moi le risque il est là, que par facilité les utilisateurs humains confient les clés à l'IA sans se poser de question sur la fiabilité, la validité et la moralité de ces décisions, parce que "si la machine le dit, ça doit être vrai". Ce n'est pas un asservissement imposé par une méchante machine qui va dominer le monde, c'est un "asservissement" volontaire des humains envers un appareil qui fait juste ce qu'on lui dit de faire. Rien n'oblige à le faire et rien n'empêche de s'en libérer, mais on le fait quand même.
Et ça c'est pas de la science fiction, c'est un comportement naturel de l'être humain. Y a qu'à voir comment la plupart d'entre nous sacrifient leur esprit critique à la facilité, "si Wikipédia le dit, ça doit être vrai".