Eliezer Shlomo Yudkovsky est un spécialiste américain de l'intelligence artificielle, qui étudie les problèmes de singularité technologique et préconise la création de l'IA amie. Il est l'auteur de plusieurs histoires de science-fiction dans lesquelles il illustre certains sujets liés aux sciences cognitives et à la rationalité.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biographie
Eliezer Shlomo Yudkovsky est l'un des rationalistes les plus actifs de l'Amérique moderne, chercheur en informatique et vulgarisateur de l'idée d'une "intelligence artificielle amicale".
Né le 11 septembre 1979. Co-fondateur et chercheur à l'organisation de recherche non gouvernementale Institute for Research on Machine Intelligence, qui publie ses livres. Eliezer Yudkovsky est l'auteur du roman philosophique Harry Potter et les méthodes du rationalisme, publié en parties sur Internet entre 2010 et 2015. Dans ce document, Harry grandit dans la famille d'un scientifique d'Oxford et, avant de se rendre à Poudlard, apprend de lui les méthodes de la pensée rationnelle.
Pour autant que l'on sache, il n'a aucun lien avec le cercle des «réalistes spéculatifs». Son nom est souvent mentionné à propos de Robin Hanson, pendant plusieurs années (de 2006 à 2009) ils ont été les deux principaux auteurs du blog "Overcoming the Prejudice", qui existait grâce à l'argent de l'Institute for Future Humanity d'Oxford.
Parfois, le nom de Yudkovsky peut être entendu à propos de Raymond Kurzweil. Il est un représentant philosophe de la communauté des techno-geeks, inaccessible et incompréhensible, donc, à la plupart du public humanitaire, auquel appartiennent presque tous les lecteurs de réalistes spéculatifs. Ce n'est pas surprenant, car il se tourne souvent vers le langage logique et mathématique, les conclusions probabilistes et statistiques, exposées à l'aide de formules et de tableaux.
Intérêts scientifiques
Yudkovsky est co-fondateur et chercheur au Singularity Institute for Artificial Intelligence Institute (SIAI). Il a grandement contribué au développement de l'institut. Il est l'auteur du livre "Creating Friendly AI" (2001), des articles "Levels of Organization in General Intelligence" (2002), "Coherent Extrapolated Volition" ("Coherent Extrapolated Volition", 2004) et The Timeless Decision Theory (2010). Ses dernières publications scientifiques sont deux articles de la collection «Risques d'une catastrophe mondiale» (2008) éditée par Nick Bostrom, à savoir «L'intelligence artificielle en tant que facteur de risque global positif et négatif» et «Distorsion cognitive dans l'évaluation des risques mondiaux». Yudkovsky n'a pas étudié dans les universités et est un autodidacte sans éducation formelle dans le domaine de l'IA.
Yudkovsky explore des conceptions d'IA capables de se comprendre, de se modifier et de s'améliorer de façon récursive (Seed AI), ainsi que des architectures d'IA qui auront une structure de motivation stable et positive (Friendly Artificial Intelligence). En plus de ses travaux de recherche, Yudkovsky est connu pour ses explications de modèles complexes dans une langue non académique, accessibles à un large cercle de lecteurs, par exemple, voir son article «Une explication intuitive du théorème de Bayes».
Yudkovsky, avec Robin Hanson, était l'un des principaux auteurs du blog Overcoming Bias (vaincre les biais). Début 2009, il a participé à l'organisation du blog Less Wrong, visant à "développer la rationalité humaine et surmonter les distorsions cognitives". Après cela, Overcoming Bias est devenu le blog personnel de Hanson. Le matériel présenté sur ces blogs a été organisé en chaînes de messages qui ont attiré des milliers de lecteurs - voir, par exemple, la chaîne de la théorie du divertissement.
Yudkovsky est l'auteur de plusieurs histoires de science-fiction dans lesquelles il illustre certains sujets liés aux sciences cognitives et à la rationalité.
Carrière
- 2000. Yudkovsky fonde le Singularity Institute (rebaptisé plus tard MIRI).
- 2006. Yudkovsky rejoint le blog collectif Overcoming Bias et commence à écrire des textes qui deviendront plus tard Chains.
- 2009. Basé sur les entrées de Yudkovsky sur Overcoming Bias, le célèbre blog collectif LessWrong.com est créé.
- 2010-2015. Yudkovsky écrit GPiMRM.
- 2013. Yudkovsky publie les derniers articles sur LessWrong.com et cesse d'écrire sur le site. Depuis 2017, Yudkovsky publie la plupart des textes accessibles au public sur Facebook et Arbital
Expérience de pensée
Imaginez une superintelligence artificielle incroyablement intelligente enfermée dans un monde virtuel - disons, juste dans une tabatière. Vous ne savez pas s'il sera méchant, amical ou neutre. Tout ce que vous savez, c'est qu'il veut sortir de la boîte et que vous pouvez interagir avec lui via une interface texte. Si l'IA est vraiment super intelligente, pouvez-vous lui parler pendant cinq heures et ne pas succomber à sa persuasion et à sa manipulation - ne pas ouvrir la tabatière?
Cette expérience de pensée a été proposée par Eliezer Yudkowsky, chercheur à l'Ingénierie Research Institute of Engineering (MIRI). MIRI compte de nombreux scientifiques qui explorent les risques de développer une superintelligence artificielle; bien qu'il ne soit même pas encore apparu, il attire déjà l'attention et alimente un débat.
Yudkovsky soutient que la superintelligence artificielle peut tout dire pour vous convaincre: raisonnement prudent, menaces, tromperie, établissement de relations, suggestion subconsciente, etc. Avec la vitesse de la lumière, l'IA construit un complot, sonde les faiblesses et détermine comment il est le plus facile de vous convaincre. Comme le dit le théoricien de la menace existentielle Nick Bostrom, "nous devons croire que la superintelligence peut réaliser tout ce qu'elle se fixe comme objectif".
L'expérience AI snuffbox jette un doute sur notre capacité à contrôler ce que nous pourrions créer. Cela nous fait également comprendre les possibilités plutôt bizarres de ce que nous ne savons pas sur notre propre réalité.