Je ne sais pas non plus, bien sûr. Mais il suffit que quelques crétins persuasifs y croient pour amorcer le « « truc ». Des brebis vont suivre.
On en est qu’au prémisse de cette « chose ».
Ça rappelle les doutes de certains scientifiques qui ont créé la première bombe atomique.
https://www.nationalgeographic.fr/scien ... e-atomique.
« Geoffrey Hinton, considéré comme une figure majeure de l’IA, s’est inquiété des dérives des machines. Il craint notamment que leur excès d'intelligence ne vienne "contrôler" l’humanité.«Â
Plus ici.
https://www.capital.fr/entreprises-marc ... ia-1467552….. Par Inès Cussac
Publié le 04/05/2023 à 13h14
Il est considéré comme le "père fondateur de l’intelligence artificielle". Geoffrey Hinton a annoncé son départ de Google dans les colonnes du New York Times ce lundi 1er mai. Un poste qu’il occupait depuis 2013 en tant qu’ingénieur en chef. Mais cinq ans après avoir été récompensé par le prix Turing, équivalent du prix Nobel de l’informatique, il ne cache pas son appréhension quant aux dangers de l’IA. "Je suis parti pour pouvoir parler des dangers de l’IA sans que cela ait un impact pour Google", a-t-il expliqué dans un tweet après l’annonce de son départ dans le journal américain. Geoffrey Hinton est considéré comme un ponte de l’IA grâce à ses travaux sur les réseaux de neurones et l’apprentissage automatique profond ("deep learning") qui ont révolutionné la discipline.
Mercredi 3 mai, il s'est exprimé pour la première fois depuis la publication de l’article. Au cours d’une conférence Em Tech Digital, organisée à Boston par la MIT Technology Review, il est revenu sur les raisons qui l’ont poussé à démissionner. "Plusieurs éléments m’ont amené à cette conclusion, l’un d’entre eux étant la performance de systèmes tels que GPT-4", a-t-il fait savoir. Et d’ajouter que ces systèmes ont, selon lui, "une sorte de sens commun sur tout, et en savent probablement mille fois plus qu’une personne, dont le cerveau a plus de 100.000 milliards de connexions. Cela veut dire que leur algorithme d’apprentissage pourrait être bien meilleur que le nôtre, et c’est effrayant !"
Durant cette conférence, l’ancien cadre de Google a reconnu avoir longtemps nié les travers de l’IA. Il craint aujourd’hui une "prise de contrôle" de l’humanité par des machines devenues trop intelligentes pour l’homme. "Ces choses auront tout appris de nous, lu tous les livres de Machiavel, et si elles sont plus intelligentes que nous, elles n’auront pas de mal à nous manipuler."
Face à de tels risques, Geoffrey Hinton ne propose pas de solution et considère que le progrès est inarrêtable. "Si les États-Unis cessent de développer, la Chine ne le fera pas et s’en servira pour des armes. Donc, oui, je pense qu’arrêter de les développer pourrait être une décision rationnelle, mais il n’y a aucune chance que cela se produise", a-t-il regretté.