Intelligence Artificielle

image.jpg
Spread the love

“On est face à des gens qui sont stupides.” Un élu lâche le fond de sa pensée. Mais qui est le plus con?

“On est face à des gens qui sont stupides. Et nous avons nous une information qu’il faut essayer de donner de la manière la plus simple ou simpliste possible. Je le dis souvent, n’oubliez pas qu’on s’adresse à des CE1 ou des CE2.”, a expliqué Nicolas Perruchot, le président du département du Loir-et-Cher le 7 septembre.

Cet élu LR a livré le fond de sa pensée auprès des conseillers départementaux de sa majorité (UDI, MoDem, LR) en vue d’une commission permanente, mais aussi devant plusieurs directeurs d’administration et des assistants du groupe des élus de la majorité, soit une trentaine de personnes au total. Ses propos ont été enregistrés.

Nicolas Perruchot a évoqué la crise sanitaire puis a déversé son mépris décomplexé de ses concitoyens pendant quasiment une minute: “Nous, on est très privilégiés, on a énormément d’informations qui sont plutôt vérifiées, mais la plupart des gens -et ne l’oubliez jamais quand vous allez refaire campagne- la plupart des gens, pardonnez-moi, sont cons.”

“Une très grande majorité, au moins 80%, pas 30. Sachez-le, ils sont d’un niveau éducatif très moyen, et de plus en plus moyen, et malheureusement ils sont bêtes.”, a-t-il insisté.

Il affirme qu’ils “croient n’importe quoi. La première connerie qui sort sur Twitter ou sur Facebook pour expliquer que le vaccin vous donne le sang violet, il y a des gens qui vont le croire. Y compris dans mon canton. S’ils expliquent que vous allez avoir une troisième oreille sur le front, il y a plein de gens qui vont le croire. Et qui vont relayer ces bêtises.”

Perruchot conclut par une référence à Georges Frêche, l’ancien maire socialiste de Montpellier, “un grand personnage politique disait: ‘de toute façon avant l’élection n’oubliez jamais, il y a 95% de cons.’”

Il invite ensuite Philippe Sartori, vice-président du département, à en dire ce qu’il pense: “Je confirme qu’on est entourés de cons… pas ici, hein!”.

Ces propos ont choqué plusieurs personnes dans l’asssitance qui ont vendu la mèche à Marianne, qui s’est procuré l’enregistrement audio, qui était destiné comme simple mémo. Le cabinet de Nicolas Perruchot a répondu que deux plaintes avaient été déposées contre X par le conseil départemental.

Source: Marianne

Oui les béotiens sont très cons… en premier lieu parce qu’ils ne lisent pas et donc ne cherchent pas à s’instruire. Ensuite parce qu’ils ne voyagent pas et s’imaginent que pour tout le monde c’est la même culture… C’est d’ailleurs le drame de ces déserteurs qui abandonnent leur pays mais qui sont incapables de devenir français ou du moins de faire semblant par politesse.
Je vois bien comme j’ai du mal à vendre mes livres qui sont pourtant essentiels et qui ont 5 étoiles sur Amazon ( jusqu’à tellement déranger que je me suis faites virer… ce qui est bien la preuve d’une société de cons) Quand je vois à quel point il est difficile aux gens de comprendre que la circoncision c’est diabolique… ou qu’ils sont incapables de comprendre la fonction essentielle du prépuce, j’hallucine car en fait ils ne savent pas plus à quoi sert le lobe de l’oreille… même les médecins sont incultes ce qui est criminel ! Quand on a expliqué à ces cons qu’il fallait mettre une ceinture il on obéit ! « C’est pour votre bien qu’on leur a dit ! » Et pour votre bien c’est trois points en moins sur le permis si vous ne vous attachez pas… après avoir accepté ce paternalisme pervers ils ont pris peur face à un virus ! Panique ! « ON » leur a dit de se mettre un masque qui ne sert strictement à rien… et les cons s’exhibent avec un masque et insultent les rares gens assez intelligents pour éviter ces conneries avilissantes.

« Gödel, Escher, Bach » : une Intelligence Artificielle peut-elle devenir consciente ?

Écrit en 1979, Gödel, Escher, Bach, an eternal golden braid de Douglas Hofstadter pose la question suivante : une Intelligence Artificielle peut-elle devenir consciente (sa réponse est oui) et dans quelles conditions ?

Écrit en 1979, Gödel, Escher, Bach, an eternal golden braid de Douglas Hofstadter pose la question suivante : une Intelligence Artificielle peut-elle devenir consciente (sa réponse est oui) et dans quelles conditions ?

Sa démonstration passe par un rapprochement entre l’œuvre de trois personnes qui a priori n’auraient aucun lien entre elles : le mathématicien Gödel, l’artiste Escher et le musicien Bach.

ENTRE SCIENCE, ART ET MUSIQUE

La plupart des mathématiciens ont considéré que leur domaine se situe à mi-chemin entre les arts et les sciences. En effet, les théorèmes mathématiques partagent avec les œuvres artistiques les caractéristiques de l’inattendu – qualité que les lecteurs généraux peuvent retrouver dans Hardy’s Mathematician’s Apology lors de l’exposé du théorème de Fermat : un nombre premier impair (sauf 2) est une somme de deux carrés parfaits si et seulement si le reste de sa division euclidienne par 4 est 1 ; et dans ce cas, les carrés sont déterminés de manière unique.

Newton utilisa les mathématiques pour résoudre les problèmes pratiques dans les sciences physiques. Il conclut que des phénomènes observables réguliers et répétitifs régis parce que nous nommons les lois physiques peuvent être modélisés sous une forme mathématique afin d’être exprimés avec précision. De ce constat est née la revendication des mathématiques, comme le cadre formel idéal d’expression des lois naturelles.

Au cours de la Première Guerre mondiale, une telle analyse semblait déjà indiquer que les mathématiques et la logique déductive relevaient essentiellement des mêmes facultés. Non seulement les mathématiques étaient déjà dotées d’une forme structurelle composée de théorèmes et de preuves mais en plus la logique elle-même pourrait être exprimée par le biais d’un formalisme mathématique.

Bertrand Russel obtint des succès dans ce domaine avec sa modélisation des règles de logique pour éviter toute une classe de difficultés caractérisées par les paradoxes classiques d’Epiménide. La démarche de Russell fut démolie par Kurt Gödel dans un argument connu sous le nom de « Théorème de Gödel ».

Qu’a dit exactement Gödel ? Son théorème a été résumé dans un article précédent de la manière suivante :

Dans n’importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l’arithmétique », on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie.

Pour une meilleure compréhension de la découverte de Gödel, prenons l’analogie suivante tirée de la littérature.

Dans une de ses nouvelles, l’écrivain Jorge Luis Borges imagine La Bibliothèque de Babel, une bibliothèque qui comprendrait tous les ouvrages (de 410 pages à raison de 40 lignes par page, et de 80 caractères par ligne) que l’on peut obtenir en permutant de toutes les manières possibles les 26 symboles orthographiques auxquels on ajoute l’espace, la virgule et le point.

Donc 29 puissance 1 312 000. Le nombre des volumes est fini (et immense). La bibliothèque contient donc tout ce qu’on peut concevoir en 410 pages et en toutes langues imaginables (utilisant l’alphabet latin) en fait de sciences, d’histoire, d’utopies y compris les ouvrages dépourvus de tout sens (les plus nombreux) et les catalogues (un vrai, et X nombre de faux).

Mais l’existence d’un tel catalogue est contradictoire et un tel catalogue n’existe pas. Supposons les volumes rangés de la manière suivante : d’abord tous les livres dont la première lettre est A, puis tous ceux dont la première lettre est B, etc. Dans le groupe des A, ceux dont la deuxième lettre est B. Et ainsi de suite. On voit aussitôt que pour décrire et situer un livre quelconque un catalogue devrait mentionner toutes les lettres de cette ouvrage.

Autrement dit, pour désigner chaque volume, le catalogue de Babel doit reproduire le volume entier. Le catalogue est donc une seconde bibliothèque identique à la première et contenue en elle. Ce qui est impossible par hypothèse, car l’axiome dit que tous les ouvrages sont distincts. La conclusion est qu’un monde fini et total ne peut contenir son image. Donc il n’est pas total et si il est total alors il n’est pas fini car il ne contient pas son image.

C’est l’autre conclusion du théorème de Gödel, un théorème mathématique consistant est incomplet, car il ne peut prouver par lui-même sa propre cohérence, et s’il est complet alors il est inconsistant.

LA CONSCIENCE FACE À LA COHÉRENCE ET L’INCOMPLÉTUDE

L’objectif principal de Gödel, Escher, Bach est d’explorer ces parentés de l’imagination, afin de rendre accessibles à des lecteurs sans connaissances mathématiques spécialisées toutes les idées essentielles qui sous-tendent la découverte de Gödel.

L’auteur puise, non seulement au sein de l’œuvre artistique d’Escher et ainsi que de la musique de Bach, mais aussi de Lewis Carroll, dont les œuvres mineures ont utilisé de longs dialogues spirituels parsemés d’ingéniosité pour illustrer de nombreux aspects de ce que nous appelons aujourd’hui le calcul proposé et ses fameux paradoxes.

Ce sont des paradoxes de contradiction, comme lorsque la déclaration « Je mens », si elle est vraie, doit être une fausse déclaration, mais si elle est fausse, doit être vraie.

Tous ces paradoxes impliquent ce que Hofstadter nomme une « boucle étrange », comme lorsqu’un argument porté à sa conclusion logique nie sa prémisse. Des boucles étranges analogues se produisent aussi dans les paradoxes de perspective d’Escher – comme lorsqu’une descente apparemment continue récupère le point de départ – et dans les explorations de Bach du paradoxe de l’achèvement d’un cycle enharmonique.

Outre les paradoxes de la contradiction, il existe des paradoxes de l’infini comme celui de Zénon d’Achille et de la Tortue ; un paradoxe résolu par la découverte qu’une infinie série d’intervalles de temps peut s’additionner à une somme finie.

Plus tard, Carroll exposa un tout autre paradoxe de la logique au moyen d’un autre dialogue entre la Tortue et Achille. Hofstadter utilise ces deux personnages, et un certain nombre d’autres de sa propre invention, dans une séquence de 20 pièces dramatiques, où le thème mathématique étudié est un miroir de la structure du dialogue.

La combinaison la plus brillante de Hofstadter d’un dessin à la Escher et d’une fugue à la Bach est utilisée pour traiter du conflit entre holisme et réductionnisme.

Le dessin incarne un vaste MU où les montants et la pièce croisée de l’énorme M se compose chacun du mot HOLISM, où cependant chaque ligne droite ou courbe dans chaque lettre est remplacée par le mot incurvé REDUCTIONISM ; et où la courbe de l’énorme U se compose du mot REDUCTIONISM, dans lequel chaque ligne droite ou courbe dans chaque lettre est remplacée par le mot courbé HOLISM.

Les trois premières voix de la fugue découvrent le sens du diagramme comme, respectivement, MU, le holisme et le réductionnisme, et poursuivent la discussion de ces deux points de vue philosophiques inconciliables ; et puis la quatrième voix jaillit sur l’étudiant du dessin une surprise passionnante qu’il serait injuste pour un critique de révéler.

CONSCIENCE HUMAINE ET CONSCIENCE « ARTIFICIELLE »

Comment terminer un tel livre ? Une possibilité aurait été d’esquisser le développement ultérieur des travaux mathématiques sur l’indécidabilité depuis Gödel.

Hofstadter préfère une discussion prolongée sur les neurosciences et sur l’intelligence artificielle. Il postule que les cerveaux agissent comme des ordinateurs. Hypothèse qui est loin d’être confirmée par les découvertes contemporaines.

Le désaccord est important en raison des implications majeures du livre qui concernent la possibilité de création d’une IA « forte » c’est-à-dire consciente. Les « jeux » proposés par l’auteur n’ont pas seulement pour fonction d’illustrer l’impact du théorème de Gödel, mais aussi que le processus cognitif qui se passe dans le cerveau humain lors de la lecture et l’exécution sont réplicables par une machine intelligente car formalisable à travers des algorithmes.

Une attente concernant l’avenir dans ce domaine est illustrée par le programme informatique de Winograd reproduit entre les chapitres 17 et 18 du livre. Ces travaux sur la linguistique ont démontré que l’analyse grammaticale exige qu’un programme informatique utilise un modèle intégré à ce qu’on appelle « l’univers du discours », auquel les phrases se réfèrent.

Les programmes pour de telles tâches d’automatisation avancée sont couronnés de succès chaque fois que l’univers du discours est relativement petit, comme dans le monde « table-top » du programme de Winograd, ou comme dans le monde « usine-plancher » des robots industriels modernes.

On pourrait penser que les augmentations présentes et futures de la puissance des ordinateurs iraient de pair avec l’augmentation de la taille maniable de l’univers de discours d’un programme.

Il s’agit toutefois d’une attente erronée à cause d’un phénomène dénommé « l’explosion combinatoire » : le temps pris pour toutes les recherches, nécessaire dans les programmes d’automatisation avancée, augmente incommensurablement plus fortement que la proportion de la taille de l’univers du discours.

Ainsi, la prochaine génération d’ordinateurs, avec leur puissance énormément accrue, pourra au mieux seulement doubler la taille de l’univers du discours que les programmes d’automatisation avancés peuvent gérer.

L’automatisation a bien sûr atteint des stades très avancés. En revanche, la question importante sur la question de savoir si les programmes informatiques peuvent être donnés des capacités d’automatisation avancées dans un univers extrêmement complexe et varié de discours.

Une compréhension et une perception comparables à ce que nous éprouvons par nos propres sens, c’est-à-dire la création d’un fameux robot « polyvalent » qui serait conscient de lui-même. Cette perspective en admettant déjà qu’elle soit possible, est encore très éloignée.

L’intelligence artificielle
va-t-elle bouleverser la profession médicale ?

L’intelligence artificielle risque de transformer le monde médical en profondeur.

Vous aimez cet article ? Partagez le !

Forgé dans les années 1950, le terme d’intelligence artificielle (IA) fait référence à un système informatique capable de raisonner, d’apprendre, et de planifier, avec un comportement évoquant celui des systèmes biologiques intelligents. Son apprentissage automatique, ou machine learning, s’appuie sur une programmation qui n’est pas uniquement déterminée par un code, mais s’adapte également aux données qui lui sont fournies.

Par exemple, dans le cadre formel de réseaux de neurones artificiels, les algorithmes mathématiques permettent de trouver par itérations la meilleure manière de représenter le lien entre plusieurs variables. Chaque neurone représente une fonction assez simple, ce qui permet de construire des fonctions très complexes dans un grand réseau.

La médecine, quant à elle, est une institution ancienne et reconnue dans nos sociétés, comme en témoigne la confiance accordée aux professionnels de santé lors de la pandémie de Covid-19. Et nous avons tendance à la considérer comme un grand navire dont la stabilité ne peut être menacée.

Pourtant, la réalité est toute autre. Dans les décennies à venir, la médecine risque bien d’être transformée en profondeur par l’IA, véritable « révolution » aux dires du président Emmanuel Macron.

Et pour prendre la mesure de ces bouleversements à venir, il n’est qu’à se référer au Health Data Hub, plate-forme lancée par le gouvernement français en novembre 2019 et permettant à des chercheurs d’utiliser des données du système national de santé pour entraîner des modèles d’intelligence artificielle.

Quelque 10 projets de recherche ont d’ores et déjà été sélectionnés pour tirer partie de cette plate-forme. Et tous entendent améliorer l’efficacité de la médecine.

Ainsi, « Deepsarc » vise à identifier les meilleurs schémas thérapeutiques pour le traitement du sarcome, « PIMPON » souhaite aider les prescripteurs à mieux connaître les interactions médicamenteuses dangereuses, « Hydro » cherche à prédire les crises d’insuffisance cardiaque pour les patients porteurs de pacemaker, « Oscour » veut mobiliser les données des urgences pour améliorer la surveillance sanitaire, « Deep.Piste » va évaluer l’apport de l’intelligence artificielle dans le dépistage organisé du cancer du sein – apport majeur d’après une étude publiée en janvier dernier dans Nature et menée auprès de six radiologues.

Si la profession médicale a toujours su tirer avantage des innovations technologiques (rayons X, IRM, etc.), elle se trouve donc confrontée à une situation de rupture inédite. Les algorithmes vont-ils prendre le pas sur les professionnels de santé ? Au sein de quelles disciplines des batailles seront-elles menées ?

UN MONDE EN CONSTANTE ÉVOLUTION

D’après les sociologues américains Rue Bûcher et Anselm Strauss, toute profession peut être définie comme un monde composé de segments, avec des conceptions différentes sur leur pratique, et des identités variées qui se transforment, se maintiennent, se développent et/ou disparaissent. Diverses disciplines médicales se retrouvent ainsi en compétition.

Par exemple, s’agissant de la prise en charge de graves maladies coronariennes, il peut y avoir opposition entre des cardiologues adeptes de l’angioplastie et de la pose de stents, et des chirurgiens cardiaques prônant plutôt le pontage à cœur ouvert.

Dans son ensemble, avec le soutien de l’État et en concurrence avec d’autres groupes tels que les guérisseurs spirituels, la profession médicale a obtenu au XXe siècle le monopole de la prestation de soins.

Pour y parvenir, elle s’est appuyée sur un système cohérent et scientifique visant à définir, classer et diagnostiquer les phénomènes de mal-être somatique et/ou psychique). Mais c’est aussi sa capacité à s’auto-organiser (en disciplines, sociétés savantes, syndicats…) qui a conféré à la médecine son autorité en matière de santé.

Dans un tel contexte, l’IA peut être vue comme une nouvelle innovation technique capable d’aider les médecins, mais aussi de renforcer leur pouvoir vis-à-vis d’autres disciplines.

Or au sein de cette profession très hiérarchisée, les choix technologiques sont le fait des élites qui opèrent dans une logique « mandarinale », fondée sur un mélange de valeurs professionnelles conservatrices et le rejet du pouvoir bureaucratique de l’État. Même si, pour chaque discipline, la décision de recourir à l’IA dépend de l’évaluation comparée de ses bénéfices et de ses risques, et ce en fonction de l’expérience passée.

Ainsi, les psychiatres se montrent plutôt sceptiques sur le fait que l’IA puisse effectuer les tâches complexes de leur quotidien, la psychiatrie étant de manière générale moins friande de technologies que d’autres disciplines. À l’inverse, l’imagerie médicale est un domaine où la performance de l’IA rend déjà obsolètes certains profils de radiologues.

D’ailleurs, on assiste à l’émergence d’une première génération de professeurs de radiologie ayant construit leur carrière sur le recours à l’IA en imagerie médicale.

UN FORT POTENTIEL DISRUPTIF

En sortant du cadre des innovations techniques classiques, l’IA confronte les professionnels de la médecine à une véritable révolution. Les raisons sont d’abord techniques : outre une rapidité sans précédent dans l’exécution de certaines tâches, elle permet le développement d’un apprentissage autonome – comme le prouvent les progrès fulgurants de la traduction instantanée des langues, aujourd’hui proposée gratuitement sur la toile avec des implications majeures pour le marché du travail. Mais la révolution vient aussi du côté anthropomorphe de l’IA…

Les réseaux de neurones artificiels, les robots à visage humain ou encore les chatbots en sont l’illustration. Ces agents conversationnels numériques utilisent des méthodes d’IA par le texte et/ou la voix pour imiter le comportement humain avec un dialogue évolutif. Et on les considère comme un moyen de fournir des soins en santé mentale dans les régions où il en existe peu, ou à destination des personnes qui ont des difficultés à révéler leurs sentiments à un être humain.

En somme, l’IA devient en elle-même un acteur social (ou un « actant » dans l’univers de Bruno Latour), ce qui augmente son potentiel disruptif.

Ces deux facettes de l’IA vont de pair, et risquent de transformer en profondeur le monde de la médecine en bouleversant l’ordre établi. Ainsi, la radiologie pourrait devenir une spécialité comportant moins de postes, et un profil plus « clinique » que « diagnostique ».

Et à l’opposé, la psychiatrie, qui attire pour l’heure peu d’étudiants, est susceptibles de voir son profil renforcé en raison de sa dimension sociale, difficilement substituable par des applications d’IA.

De fait, c’est précisément en prenant appui sur cette dimension et ses vertus fondatrices (empathie, intimité de la relation patient-praticien, secret médical) que la profession médicale dans son ensemble pourrait redessiner son profil et son champ d’action.

Car en matière de soins, divers acteurs extérieurs au monde médical se sont en effet positionnés dans la prise en charge du mal-être somatique et/ou psychique à travers l’IA : c’est notamment le cas des

GAFAM comme Google, qui finance des études sur l’IA en santé, Facebook qui mobilise l’IA pour détecter le risque de suicide de ces utilisateurs, ou encore Microsoft, qui en France héberge le Health Data Hub.

À l’image d’un porte-conteneur qui, bien qu’habitué aux tempêtes, peut être mis à mal par une déferlante de vagues scélérates, la profession médicale fait donc face à une situation inédite.

Et quand bien même elle dispose des ressources nécessaires à la navigation, la puissance des éléments risque de la contraindre à trouver un nouveau cap. Quelle qu’en soit l’issue, la transformation sera profonde.

Sur le web

  1. Chercheur en sciences politiques au CEPEL/CNRS, Université de Montpellier. 
  2. Directeur de recherche CNRS au CEE à Sciences Po, Sciences Po – USPC. 

Ce qu’il se passe dans votre cerveau lorsque vous méditez

La méditation, à tout âge, améliore les performances cognitives de votre cerveau.

La méditation va jusqu'à modifier le volume de certaines aires de votre cerveau. | Mor Shani via Pixabay
La méditation va jusqu’à modifier le volume de certaines aires de votre cerveau.

Il y a 80 à 100 milliards de neurones dans le cerveau humain, et chacun d’entre eux peut établir des milliers de connexions avec d’autres, construisant un réseau complexe de centaines de billions de synapses qui permettent aux cellules du cerveau de communiquer entre elles, rapporte Medium.

Sara Lazar, une neuroscientifique de la Harvard Medical School, utilise la technologie IRM pour examiner les structures cérébrales très fines et détaillées afin de voir ce qui se passe dans le cerveau pendant qu’une personne pratique le yoga et la méditation.

Les données ont prouvé, entre autres, que la méditation peut ralentir ou empêcher l’amincissement lié à l’âge du cortex frontal qui contribue à la formation des souvenirs. Tout le monde sait que lorsque les gens vieillissent, ils ont tendance à oublier des choses. L’étude montre qu’à 40 ou 50 ans, ceux qui méditent ont la même quantité de matière grise dans leur cortex que des jeunes de 20 à 30 ans.

Un volume du cerveau modifié

Pour sa deuxième étude, Sara Lazar a fait appel à des personnes qui n’avaient jamais médité auparavant et leur a fait suivre un programme d’entraînement. Au bout de huit semaines, elle a découvert que le volume du cerveau se modifiait dans plusieurs régions.À lire aussiDes conseils pour prendre soin de sa santé mentale durant le confinement

Il augmentait dans l’hippocampe, une structure responsable de l’apprentissage, du stockage des souvenirs, de l’orientation spatiale et de la régulation des émotions. Il grossissait aussi dans la jonction temporo-pariétale, la zone où les lobes temporal et pariétal se rencontrent et qui est responsable de l’empathie et de la compassion. Le volume du cerveau diminuait en revanche dans l’amygdale, une structure en forme d’amande responsable du déclenchement de la réaction de lutte ou de fuite en réaction à une menace, qu’elle soit réelle ou seulement perçue.

Un entraînement au bien-être

Ce phénomène, appelé neuroplasticité, signifie que la matière grise peut s’épaissir ou se contracter, que les connexions entre les neurones peuvent être améliorées, que de nouvelles peuvent être créées et que les anciennes peuvent se dégrader ou même s’éteindre.

Ces changements biologiques dans votre cerveau peuvent avoir un impact sur votre bien-être, selon les scientifiques du Center for Healthy Minds de l’université du Wisconsin-Madison.PUBLICITÉ

Il n’est donc plus à prouver que l’entraînement à une plus grande résistance aux stimuli douloureux et à la pleine conscience via la méditation augmente la compassion, renforce les liens sociaux et permet une meilleure appréhension de l’instant présent.

Intelligence artificielle : « la machine peut être meilleure que l’Homme »

Un entretien avec Luc Julia co-fondateur de Siri, passé par Apple, désormais vice-président de Samsung en charge de l’innovation, auteur du best-seller « L’Intelligence artificielle n’existe pas ». 

À croire que les religions ne disparaîtront jamais. Ou plutôt le besoin de croire en quelque chose qui donne un sens au vivant et structure les organisations collectives. Une forme de transcendance. Le « retour du sacré », superbement analysé par Michel Maffesoli, n’en est peut-être pas un.

Il ne s’agit pas d’islam, de catholicisme ou d’un quelconque monothéisme. Spasmes sans doute éphémères de ce « clair-obscur » décrit par Gramsci. Cette nouvelle cause religieuse s’apparente à ce que l’on nomme l’Intelligence artificielle.

Depuis l’apparition de ce mot, en 1956 lors d’une conférence aux États-Unis qui s’est tenue au Dartmouth College, jusqu’à la filmographie foisonnante d’Hollywood, en passant par la science-fiction, ce terme suscite peurs irrationnelles et fantasmes les plus fous.

Comme tout discours religieux, les réactions sont épidermiques, il y a les croyants et les hérétiques. Les premiers, souvent les géants de la tech, nous annoncent, entre hubris démesuré et stratégies de communication, une Atlandide 2.0. Un hippisme modernisé, en fait. Les seconds, véritables marchands de peurs jouant sur nos biais cognitifs et notre obsession du sensationnel, dépeignent avec solennité un monde où la machine asservirait l’Homme, dans une revanche expiatoire.

Comme toujours, la première victime de ces croyances collectives est la vérité. Une fois de plus, la situation est ironique : des États-Unis à la Hongrie, des murs sont rebâtis alors que la frontière entre réalité scientifique et ignorance est réduite à néant.

Dans ce monde du verbe haut et des coups bas, difficile d’entendre les paroles d’un Zarathoustra qui serait affranchi de la langue de bois, des fausses croyances et des impératifs de communication. 

Luc Julia co-fondateur de Siri, passé par Apple, désormais vice-président de Samsung en charge de l’innovation, auteur du best-seller L’Intelligence artificielle n’existe pas mais aussi chercheur et ingénieur émérite, est assurément un Zarathoustra. Moins le côté ermite, assurément. Et l’humour, en bonus.

Le rendez-vous était fixé à 20 heures tapantes. Conditions sanitaires et vacances obligent, l’entretien se fait par écran interposé. Chemise hawaïenne bleue en guise d’étendard. Pendant un peu moins d’une heure d’un échange passionnant et franc, Luc Julia tord le cou aux idées reçues et prodigue une véritable leçon d’humilité et de pragmatisme. Salvateur.

Prêt à gravir la montagne avec lui ?

BIOGRAPHIE

Vous avez fabriqué votre premier robot à l’âge de 9 ans pour faire le lit à votre place, est-ce bien le cas ? D’où vient cette passion qui s’est manifestée si vite pour les robots et la programmation ?

Par fainéantise, je pense. J’espérais pouvoir déléguer cette activité que je n’appréciais pas beaucoup. C’est surtout ça, la technologie : laisser les tâches rébarbatives, répétitives et peu intéressantes aux robots. En l’occurrence, faire le lit à 9 ans, il ne s’agit d’une tâche que l’on fait avec plaisir. Pour être honnête, ce robot ne faisait pas très bien le lit, en plus. 

Pourquoi vous être spécialisé dans le domaine des interfaces vocales ?

C’est la même réponse que pour la première question. Pour moi, le clavier était quelque chose d’insupportable car c’est une démarche qui n’est ni pratique ni naturelle. Quelle est la façon plus naturelle de s’exprimer ? La voix. Parler. La voix permet de transmettre énormément d’informations et de subtilités qu’un clavier et une souris n’arriveront jamais à retranscrire. 

La puissance cognitive de la parole est beaucoup plus forte. L’écrit a aussi ses vertus, évidemment mais la parole a cette spontanéité. Et selon moi, on ne pouvait pas imaginer d’interface Homme-machine sans la voix.

En 1997, vous déposez avec votre ami Adam Cheyer les brevets de ce qui deviendra plus tard Siri (« The Assistant »). Qu’est-ce que valait un assistant vocal à cette époque ?

Il s’agit du premier assistant vocal de l’histoire. Personne n’y avait pensé avant. À l’époque, il s’agissait simplement d’un petit sorcier âgé à la barbe blanche qui était sur un écran qui vous parlait pour jouer le rôle d’intermédiaire entre vous et les services. 

À l’époque, il faut évidemment se remettre dans le contexte, les services sont assez limités. On est en 1997, Internet vient à peine d’arriver. Ces services sont représentés sous forme de pages web et l’assistant va permettre d’aller chercher ces informations contenues dans les pages web. 

Quelque part, c’est un moteur de recherche qui ne dit pas son nom. Par exemple, à l’époque on pouvait demander : « trouve-moi un hôtel à San Francisco ». Sans Google à cette époque, je peux vous assurer que ce n’était pas simple.

En 2010, Siri est racheté par Apple, pourquoi rejoindre la célèbre marque à la pomme croquée ?

C’est une bonne question, je me la pose encore… C’était mon « bébé », avec Adam Cheyer, on a créé cette technologie. Au moment du rachat, Adam rejoint Apple et me propose de le rejoindre. Je n’avais pas très envie dans la mesure où je préfère les systèmes ouverts que fermés, comme c’est le cas d’Apple.

On travaillait depuis tellement longtemps sur cet assistant que j’étais obligé de continuer l’aventure. Et puis avec Apple, on se disait qu’on allait pouvoir toucher énormément d’individus, beaucoup plus que dans notre coin. On est passé de 150 000 utilisateurs à 200 millions dès la première année. L’ego a aussi joué, donc. On croyait aussi que cette technologie était révolutionnaire et ça l’a été.

En 2011, Siri est intégré à l’IPhone 4S et reçoit les éloges des utilisateurs et des commentateurs : rétrospectivement, comment expliquez-vous la stagnation d’Apple en matière d’assistant vocal, au point d’être dépassé par Amazon et Google ?

La technologie que l’on utilisait datait des années 1990 et se basait sur des statistiques avec le modèle de Markov caché. Dans les années 2000, il y a eu de nouveaux progrès en IA, surtout à partir des années 2010 avec le machine learning et le deep learning. Siri est sorti en 2011, et Apple n’a pris ce tournant que quelques mois après, comme l’ont fait Google et Amazon plus récemment par exemple. Nous on était partis pour et on poussait en ce sens mais Apple n’a pas compris cela et on a quitté Apple. Google a d’ailleurs sorti très rapidement après Siri un assistant vocal (2013) mais s’est tourné très rapidement vers le machine learning. Amazon est directement arrivé sur le marché avec le machine learning.

Par la suite, vous intégrez Samsung en qualité de vice-président chargé de l’innovation. Vous réussissez à faire installer à Paris un laboratoire dédié à l’IA en 2018 que vous dirigez depuis lors. Quel bilan tirez-vous de ces deux années et quel est votre regard sur l’évolution de l’écosystème français en matière d’IA ?

Le bilan est bon, mais je ne peux pas en dire plus. C’est en effet un laboratoire dédié à l’IA, même si je ne sais pas ce dont il s’agit alors que je travaille dans ce domaine depuis 30 ans, mais aussi à l’innovation augmentée. Concernant l’IA en France, on est les meilleurs au monde. La raison ? On forme les meilleurs mathématiciens au monde. Et l’IA, c’est des mathématiques et des statistiques aujourd’hui. Et il y a des progrès aussi parce que depuis quelques années, on redécouvre l’entrepreneuriat en France, notamment en 2012 lorsque Fleur Pellerin crée la French Tech. 

Cela a permis à nos élites, formées dans les grandes écoles, de comprendre qu’il y avait une autre voie que de travailler dans la grosse entreprise du secteur. On s’est ré-aperçu que l’innovation venait avant tout des petites structures, des startups qui sont obligées de créer. 

Ce qui ne veut pas dire que les grosses structures n’innovent pas mais cela passe souvent par le rachat de ces startups innovantes. Et il est important de ne pas forcer la création d’écosystèmes, c’est pour cela que Saclay est une erreur. Des écosystèmes comme Silicon Sentier, en plein cœur de Paris, sont de vrais exemples.

DÉCONSTRUIRE LES MYTHES ET RÉFLÉCHIR À L’IA

Ray Kurzweil, lauréat de la « National Medal of Technology » en 1999, génie incontesté travaillant chez Google depuis décembre 2012, déclarait que 2045 serait l’année où « l’intelligence non-biologique créée sera un milliard de fois plus puissante que toute l’intelligence humaine d’aujourd’hui ».  La singularité serait proche selon lui. Dans votre ouvrage, vous tordez le cou aux idées reçues et autres fantasmes concernant l’IA, mais comment expliquer ce vide abyssal entre les discours prophétiques des gourous de la Silicon Valley et la réalité scientifique ?

C’est plus sexy de dire que l’IA va nous dépasser. Les films marchent mieux si on nous explique que les robots vont exterminer l’espèce humaine que de dépeindre une IA faible, comme c’est le cas. Tous ces films d’Hollywood et ces discours des géants de la tech, cela fait vendre du papier, fait le buzz, permet de tirer la couverture sur soi mais ça n’a rien à voir avec la réalité scientifique. 

Il y a beaucoup de marketing et de communication dans ces discours. Mais c’est dangereux, on crée des tensions inutiles car on fait peur, en expliquant que cela va détruire des emplois par exemple. Cela peut aussi décevoir, car on promet des choses qui n’arriveront sûrement jamais et le risque d’assister à un autre « hiver de l’IA », comme il y en a dans les années 1950 et 1960. 

Les gens sont déçus, donc on arrête d’investir et des domaines tombent en désuétude. C’est pour cela qu’il faut être honnête, dire ce qui est possible, ce qui ne l’est pas et rêver un peu, oui mais le reconnaître.

Dans votre ouvrage L’Intelligence artificielle n’existe pas, vous expliquez que deux discours vous agacent : l’alarmisme catastrophique de certains et la technophilie béate des autres, nos biais cognitifs nous poussent vers ces discours irrationnels, mais ne sont-ils pas utiles pour autant ? Le fait qu’il y ait plusieurs « hiver de l’IA » ne peut-il pas permettre de relativiser la situation actuelle et les promesses mirobolantes des géants de la tech ?

Si un autre « hiver de l’IA » venait à se réaliser, les conséquences seraient beaucoup plus dramatiques que par le passé car l’IA est partout dans notre quotidien. Cela va affecter beaucoup de personnes, des milliards. Concernant la possible utilité de ces deux discours éloignés de la réalité scientifique, je pense que c’est dangereux, surtout concernant les motivations. 

Penser les enjeux des technologies et ses possibles dérives avec la science-fiction par exemple est évidemment utile mais cela ne doit autoriser le mensonge délibéré ou la peur pour manipuler. Évidemment que la technologie peut avoir des conséquences terribles mais il ne faut jamais oublier que c’est l’humain qui la contrôle et la crée. C’e n’est pas la faute de l’IA, mais la nôtre. C’est toujours nous qui décidons à la fin.

Qu’est-ce qui différencie l’intelligence humaine des IA les plus développées aujourd’hui que vous préférez appeler « intelligence augmentée » ? 

Je le fais avant tout pour garder l’acronyme IA même si ça n’a rien à voir avec l’intelligence augmentée. Je dirais même que c’est notre intelligence qui est augmentée grâce à ces technologies parce qu’il ne s’agit que d’outils qui nous servent à mieux réaliser des tâches, et plus rapidement. Mais il est tout à fait possible d’avoir un débat sur l’impact de certaines technologies sur notre intelligence. 

La différence essentielle entre nous et ce que l’on appelle à tort l’IA réside d’abord dans la capacité à faire plusieurs activités. L’Homme est un couteau suisse, il est multifonctionnel tandis que l’IA ne peut être douée que dans un domaine très particulier (les échecs ou le jeu de Go). L’Homme peut parler de tout, surtout les Français. L’IA, non. 

En somme, la machine peut être meilleure que l’Homme, mais c’est systématiquement le cas dans des domaines bien particuliers. L’autre différence selon moi réside dans le pouvoir de créer. On peut débattre autour de la possibilité ou non des IA de créer, dans le domaine de l’art par exemple. Selon moi, une énorme différence entre l’intelligence humaine et les IA réside dans le fait que l’Homme peut créer quelque chose qui n’existe pas alors que les IA ne font que récréer ce qu’on leur a dit de faire, à partir de données existantes. 

Évidemment, on se sert nous aussi de ce qui existe pour créer mais notre créativité est réelle, pas celle de l’IA car elle se base sur des données anciennes. Il n’y a pas de projection. L’IA, c’est des mathématiques, deux grandes branches : le machine learningdeep learning c’est-à-dire des statistiques et une branche logique, c’est-à-dire des régles : si…  Ces règles, ce sont nous qui les éditons donc ce sont des choses qui existent. 

Vous écrivez : « Il n’y a pas d’intelligence dans le machine learning ou le deep learning. Ce n’est que de la reconnaissance. Le robot ne prend pas de décisions, il fait ce qu’on lui dit ». Dans cette reconnaissance, le rôle de la data est central. Certains parlent même de dataïsme pour définir la future croyance collective (Yuval Noah Harari), partagez-vous sa prédiction et quel est votre regard sur la protection des data ?

Les IA en effet ont besoin d’énormément de données pour fonctionner. Je trouve le RGPD excessivement utile, même si cela peut paraître étonnant. Le RGPD a en effet des vertus éducatives car cela a permis à beaucoup de personnes de comprendre que les données sont une denrée extrêmement précieuse. 

Le RGPD a rendu possible une prise de conscience même si on peut la contourner extrêmement facilement, tout le monde le fait. Mais cette prise de conscience grâce au RGPD peut déboucher sur d’autres formes de régulation, comme le fait de pouvoir monnayer les données si on y consent. Le choix est extrêmement important. La preuve en est, la Californie a repris les dispositions du RGPD dans un texte adopté en 2020. 

Plus globalement, quelles régulations faudrait-il imaginer pour l’IA : doit-on l’attendre des pouvoirs publics, laisser les entreprises s’autoréguler ou réapprécier le rôle des serments et autres chartes éthiques ?

Il doit y avoir une régulation. Je prends souvent l’exemple de l’atome avec les bombes nucléaires. L’éthique personnelle, c’est une bonne chose mais il y a toujours une course quelque part donc l’autorégulation est une vaste fumisterie. Pour la bombe atomique, on a eu besoin d’un cadre mondial. Peut-être que cela sera aussi le cas pour l’IA mais le plus important est qu’il y ait régulation.

Au-delà des régulations, nous allons également être confronté à un choix. L’IA avec les big dataest une aberration écologique. En tout cas, la façon dont elle fonctionne aujourd’hui. L’IA et le tout dématérialisé provoquent une concentration extrême de serveurs dans des data centers très énergivores. 

Le problème principal de l’IA est la compréhension des data qu’elle utilise. L’exemple du robot conversationnel « Tay » lancé sur Twitter par Microsoft en 2016 est frappant : « Tay » se nourrit des précédents échanges pour s’améliorer, sauf que des individus en ont profité pour détruire l’expérience : en quelques heures, Tay est devenu l’un des comptes les plus racistes et misogynes de Twitter. Une IA pourra-t-elle un jour comprendre les data qu’elle utilise, ou englobez-vous la compréhension comme une faculté innée, réservée à l’espèce humaine ?

Les notions d’inné et d’acquis sont des débats insolubles, donc je ne sais pas vraiment. Ce que je sais, c’est que les machines ne comprennent rien des données qu’elles utilisent ou en tout cas pas toutes seules. Dans ce cas, il faut un humain pour superviser. Donc non, les machines ne comprendront sans doute jamais les données qu’elles utilisent.

Quel est le pourcentage de chance que l’on passe d’une IA « faible » à une IA « forte » ? Vous dites qu’il faudra d’autres technologies, « sur lesquelles on patine encore », quelles sont-elles ? Les freins sont-ils conséquents ou, à horizon 10, 15 ans, peuvent être surmontés ?

Le pourcentage est 0, avec les techniques que l’on utilise aujourd’hui, c’est-à-dire les outils mathématiques. Si on utilise autre chose, je ne sais pas. Cet autre chose, si l’on souhaite se rapprocher d’un cerveau humain, serait du domaine de la biologie ou de la physique. Ces deux domaines sont dans notre cerveau, les mathématiques en sortent. Les mathématiques, c’est artificiel ; la biologie et la physique, c’est réel. Si on veut créer une IA forte, il faudra faire d’énormes progrès en biologie et en physique, mais les techniques actuelles en sont très loin. 

Mais même avec d’énormes progrès, cela resterait compliqué. La vérité est que l’on ne comprend rien au cerveau. Les meilleurs spécialistes disent qu’on comprend entre 20 et 40 % du cerveau. Donc, le pourcentage dans 15 ans, même avec ces autres technologies, reste 0. Dans 100 ans, on n’est pas loin de zéro non plus. On est sur Terre depuis trois millions d’années et on ne comprend même pas la moitié du cerveau. C’est déjà énorme mais ça n’est pas suffisant pour voir une IA forte.

En tant que co-fondateur de l’assistant vocal Siri, vous connaissez bien les problématiques liées à l’effet ELIZA avec des spécialistes qui souhaitent même donner des droits aux robots. Alors que les agents conversationnels se développent, que faire pour limiter l’effet ELIZA et ses conséquences néfastes ?

On revient aux discours délirants sur l’IA, cela fait vendre plus de journaux même ça n’est en rien comparable à la réalité. Je ne crains pas une multiplication de l’effet ELIZA car j’essaie de me l’expliquer. Il n’y a rien de magique dans l’IA. Il faut rester dans le contrôle et pour cela, il faut s’éduquer. L’éducation est extrêmement importante dans l’IA. Mais nous ne sommes qu’aux balbutiements de l’IA, donc il y a aussi ces discours parce que c’est très nouveau, depuis les années 2010 presque. 

Avec la crise du coronavirus, il semblerait que la robotisation et les exemples d’application de l’IA se développent. Les enjeux pour l’IA sont multiples, entre un possible bouleversement du domaine éducatif, un impact écologique fort, un marché du travail en pleine mutation… Qu’en pensez-vous ?

Le domaine éducatif, d’abord. Apprendre à programmer ne sert à rien, car les langages de programmation changent tous les jours. Il faut apprendre les mathématiques. À partir de là, on peut comprendre l’informatique, l’IA… Concernant la question du travail, c’est un débat que l’on a à chaque révolution industrielle. 

Je ne crois pas que l’IA va faire disparaître le travail. Des métiers vont être détruits, d’autres seront créés. Ce n’est pas nouveau, cela date de la nuit des temps. Là, seulement, c’est extrêmement rapide et à grande échelle et dans tous les domaines. 

Aux jeunes générations, je leur conseille d’apprendre à apprendre. Il n’y a aucune chance que vous fassiez le même métier toute votre vie. J’ai fait pendant 40 ans la même chose, j’ai beaucoup de chance, je suis passionné par ce que je fais mais c’est une chose qui ne sera plus possible. Il faut apprendre à apprendre, à se former. Les meilleurs seront ceux qui savent s’adapter à des fonctions et environnements qui changent. 

LE QUOTIDIEN EN 2030-2040

Dans votre ouvrage, vous vous attachez également à décrire le monde dans un futur proche, à horizon 2030 – 2040. C’est un monde ultra-connecté où tous les objets sont presque nos « amis virtuels ». Votre discours résolument optimiste contraste justement avec cette projection dans ce monde un peu froid. Pensez-vous que les technologies peuvent rapprocher les individus ? 

Pas Facebook, en tout cas. Excepté les réseaux sociaux, je ne crois pas que c’est la vocation des technologies que de nous rapprocher. C’est une idée récente avec Facebook etc. Quant au monde froid que je décris dans mon ouvrage, le contraste est intéressant mais c’est un choix. Le grand enjeu avec l’IA et les nouvelles technologies, c’est la question du choix. Mais ce choix doit être informé et éduqué.

L’IA ne remplacera pas la prise de décision humaine

L’IA ne peut pas remplacer l’esprit humain, ou en tout cas pas pour l’avenir prévisible. Et si ce jour arrive il faudra faire preuve de vigilance extrême.

Les progrès en matière d’IA (Intelligence Artificielle) font naitre beaucoup de rêves et de craintes. On entend de plus en plus des discours promouvant l’idée que l’IA va pouvoir scientifiser les activités humaines et les sciences sociales.

Qu’il s’agisse de remplacer les juges par une IA qui serait chargée de dire le droit et de rendre la justice ou de l’idée que la science économique pourrait juste être calculée et analysée par des ordinateurs, les idées sur l’utilisation de l’Intelligence Artificielle ne manquent pas.

Si nous pouvons nous réjouir que l’IA, en tant qu’innovation, soit bien accueillie, il faut toutefois garder raison et prendre conscience de certaines limites : l’IA ne peut pas remplacer l’esprit humain, ou en tout cas pas pour l’avenir prévisible.

Et si ce jour arrive il faudra faire preuve de vigilance extrême.

L’INTELLIGENCE ARTIFICIELLE NE PEUT PAS REMPLACER L’ESPRIT ET LE CERVEAU HUMAIN

Comme son nom l’indique, l’IA reste artificielle et est moins perfectionnée qu’un encéphale humain. Si elle arrive à copier et à apprendre la logique humaine, elle ne parvient pas à produire la même complexité que cent milliards de neurones connectés entre eux par le million de milliards de synapses du cerveau humain.

De plus, toute décision humaine n’est pas forcement logique. Une partie repose sur des éléments inconscients. Il convient de rappeler que Vilfredo Pareto met en avant dans son Traité de sociologie générale en 1917 que les actions humaines peuvent être « logiques » mais aussi « non-logiques ».

À cet effet, les émotions jouent un rôle majeur dans la prise de décision humaine et ne sont pas compatibles avec les processus des IA. Si une IA peut imiter des émotions, elle ne pourra pas les utiliser pour une prise de décision comme les humains.

Dès lors, concevoir l’IA comme un outil capable de remplacer l’action humaine ou la diriger parait contreproductif. L’idée d’utiliser les machines pour transformer les sciences sociales comme l’économie en de simples algorithmes ne prend pas en compte la réalité de l’activité humaine basée sur l’individu.

Comme le rappelle Ludwig von Mises dans Human Action : « toutes les actions sont effectuées par des individus. Un collectif fonctionne toujours par l’intermédiaire d’un ou de plusieurs individus dont les actions sont liées au collectif en tant que source secondaire. » Dès lors, vouloir réduire les calculs économiques à des algorithmes est impossible du fait qu’ils sont le produit des volontés individuelles de l’ensemble des personnes.

Plus généralement, Friedrich Hayek met en garde contre une planification scientifique dans La route de la servitude : « L’intolérance de la raison, fréquente chez le spécialiste, l’impatience caractéristique de l’expert envers les comportements et les actes du non-initié, le mépris souverain pour tout ce qui n’est pas organisé d’après des schémas scientifiques par des esprits supérieurs » a été une des causes de la montée du totalitarisme en Allemagne.

Vouloir confier à une IA qui sera programmée ou éduquée pour être spécialiste dans son domaine aura des effets néfastes sur la liberté et privera la prise de décision de son humanité.

L’IA SERA UNE AIDE MAIS L’HUMANITÉ DOIT GARDER LE DERNIER MOT

L’IA peut être une aide précieuse pour la prise de décision mais ne peut pas remplacer la décision finale humaine. Le cas des drones militaires illustre par ailleurs bien le problème : d’un point de vue légal, ceux-ci ne peuvent pas faire feu sans l’autorisation d’un humain.

En matière d’économie qui affecte la vie de tous les individus, l’utilisation de l’IA et des algorithmes doit suivre le même raisonnement. Les machines ne peuvent pas remplacer le développement des théories en matière de science sociales car elles sont l’étude de l’action de l’humanité, ce que n’est pas une machine.

  1. Respectivement PDG et chercheur associé à l’Institut économique de Montréal (iedm.org) 

Voici le cerveau derrière le piratage des Twitter d’Obama et de Musk: “Ce n’est pas un jeune homme ordinaire”

Voici le cerveau derrière le piratage des Twitter d’Obama et de Musk: “Ce n’est pas un jeune homme ordinaire”

La justice américaine a inculpé vendredi trois personnes, âgées de 17 à 22 ans, pour le spectaculaire piratage mi-juillet de comptes Twitter de célébrités, dont Barack Obama et Elon Musk, qui aurait permis aux pirates de récolter plus de 100.000 dollars en crypto-monnaie. Graham Ivan Clark, âgé de 17 ans, est accusé d’être le “cerveau” de la cyberattaque.

Le jeune homme de 17 ans, résident de Tampa, en Floride, a été arrêté tôt sur place vendredi, d’après un communiqué de la justice locale. Il est soupçonné d’être le cerveau derrière les faits. “Ce n’était pas un jeune homme ordinaire de dix-sept ans”, a déclaré Andrew Warren, procureur du comté de Hillsborough, dans l’État de Floride, lors d’une conférence de presse. C’était une “attaque très sophistiquée”.

Deux complices arrêtés

« Il existe une croyance erronée au sein de la communauté des hackers criminels selon laquelle des attaques comme le piratage de Twitter peuvent être perpétrées de manière anonyme et sans conséquence », a ajouté le procureur américain David Anderson, officiant aussi à Tampa. « Je veux dire aux contrevenants potentiels: enfreignez la loi et nous vous trouverons ».

L’accusé mineur a été inculpé pour complot en vue de commettre une fraude électronique, complot en vue de commettre un blanchiment d’argent et accès intentionnel à un ordinateur protégé. Mason Sheppard, alias « Chaewon », 19 ans, domicilié au Royaume-Uni, a été inculpé des mêmes chefs d’accusation, a indiqué le ministère américain de la Justice. Nima Fazeli, alias « Rolex », 22 ans, d’Orlando, en Floride, est lui soupçonné d’avoir aidé et encouragé l’accès intentionnel à un ordinateur protégé.

Twitter, dont la réputation a été entachée par cette attaque contre des stars du réseau, a fait savoir jeudi que l’attaque avait ciblé une poignée de salariés via une opération de hameçonnage par téléphone, afin d’obtenir leurs identifiants.

100.000 dollars récoltés

Les pirates « ont ciblé 130 comptes – ils ont tweeté depuis 45 d’entre eux, accédé aux messageries de 36 et téléchargé les données de 7 », a indiqué le réseau social. Parmi les comptes piratés se trouvaient notamment ceux de responsables politiques, comme le candidat démocrate à la présidentielle américaine Joe Biden ou l’ancien président américain Barack Obama, et de grands patrons comme le fondateur d’Amazon Jeff Bezos, le patron de Tesla Elon Musk ou Bill Gates, le fondateur de Microsoft.

À partir des comptes dont ils avaient pris le contrôle, les hackers ont envoyé des messages aguicheurs incitant les abonnés à ces comptes à envoyer des bitcoins, une crypto-monnaie, soi-disant en échange du double de la somme envoyée. Les sommes versées ont atterri sur un faux compte, créé par les pirates, où ils ont reçu « plus de 400 transferts valant plus de 100.000 dollars », a précisé le ministère de la Justice.  Warren a averti que ce type de piratage aurait pu perturber les marchés financiers mondiaux, mais aussi la politique américaine et la diplomatie internationale. 

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*