Les informaticiens s’inquiètent de la « singularité » – le moment où l’intelligence artificielle prend conscience. Ils craignent qu’une entité super-intelligente ne décide de prendre le contrôle de la planète, d’asservir les humains, de coloniser l’univers connu, etc. En d’autres termes, ils craignent qu’une telle création ne se comporte exactement comme ses créateurs.
Le Pentagone, par exemple, a mis au point sa première stratégie en matière d’IA cette année, affirmant qu’« il veillera à déployer la technologie conformément aux valeurs de la nation ». Le Pentagone parle probablement de sa propre interprétation des valeurs de la nation. L’année dernière, les Etats-Unis (et la Russie) ont bloqué les efforts de l’ONU visant à interdire les « robots tueurs », des armes qui ne nécessitent aucune intervention humaine, contrairement aux drones. Interdire les robots tueurs semble aller de soi.
Mais les Etats-Unis ont déclaré qu’il serait « prématuré » de les réglementer. C’est parce que le groupe de recherche du Pentagone et les entreprises américaines essaient d’établir une hégémonie technologique en recherchant des moyens de fusionner un soldat et un ordinateur sur le champ de bataille, de lutter contre la prochaine génération de cyberguerre et d’assurer la domination du spectre. Il y a ensuite les utilisations de l’intelligence artificielle pour améliorer la surveillance, créer des technologies de surveillance prédictive et voler votre travail.
Compte tenu de tous ces effets pervers, les vidéos deepfake pourraient constituer la tendance la moins inquiétante en matière d’IA. Cependant, à court terme, ces déceptions minent davantage tout espoir de revenir à un moment d’avant Trump où des conversations nationales pourraient être conduites sur la base d’une réalité observable. Comme le note Jamie Bartlett dans The Guardian, l’ère des fausses falsifications pourrait peut-être même faire en sorte que la politique viscérale et divisée d’aujourd’hui ressemble à un âge d’or du raisonnable.