Dans les œuvres de science-fiction, les extraterrestres sont souvent représentés comme des êtres destructeurs, capable de terrasser notre monde grâce à leurs technologies (Guerre des mondes, V…) ou leurs capacités physiologiques proche du parasite (Alien, Bodysnatcher…). Mais deux chercheurs en astrophysique, Michael Hippke et John G. Learned, pensent très sérieusement à une autre voie de destruction, peu explorée jusqu’à présent : le malware.

Depuis des années, nous scrutons l’espace à la recherche d’un message venant d’une civilisation lointaine, très lointaine. Mais le jour où un tel message nous arrivera, comment faut-il réagir ? Et si le message, en apparence pacifique, était infecté par un code malveillant capable d’anéantir toutes nos infrastructures ?

D’après l’étude des deux chercheurs, seuls les messages simples, que l’on peut transcrire sur papier, peuvent être acceptés sans aucun danger. En revanche, les messages complexes – qui nécessitent l’usage d’un ordinateur pour leur déchiffrement ou leur décompression – seraient impossibles à décontaminer avec une totale assurance. Il y aurait donc toujours un risque, aussi faible soit-il, que « l’ordinateur exécute un code extraterrestre malveillant ».  

La prison parfaite n’existe pas

Mais dans ce cas, pourquoi ne pas tout simplement utiliser une machine totalement isolée pour déchiffrer le message ? Le problème, expliquent-ils, c’est que la prison parfaite n’existe pas. Il existe toujours un moyen pour s’évader, ce que les hackers savent bien.

A titre d’exemple, les deux chercheurs prennent l’hypothèse d’un message extraterrestre en apparence pacifique, incluant tous les éléments techniques pour construire une intelligence artificielle (IA). Même si cette IA est exécutée sur un ordinateur installé sur la lune et flanqué de bombes atomiques, elle pourrait quand même réussir à s’évader de cet espace de quarantaine, en s’appuyant sur nos faiblesses humaines.

Si l’IA nous donne la solution pour éradiquer définitivement le cancer au moyen de nanorobots, faudrait-il lui faire confiance et construire ces appareils, alors que ces derniers pourraient lui permettre éventuellement de se répliquer ? « Si l’IA extraterrestre est supérieure à notre propre intelligence, elle pourrait (ou non) nous dominer et nous considérer comme des singes sans importance (ou non) », peut-on lire dans l’étude. Mais au final, les deux chercheurs estiment que le risque d’une telle malveillance est quand même très faible au regard du bénéfice potentiel que l’on peut tirer d’une rencontre du troisième type. « Nous encourageons fortement de lire le message entrant [d’une civilisation extraterrestre] », concluent-ils. Car finalement, on n’a jamais rien sans rien.     

Source : Motherboard

Cet article a été importé d’un feed RSS, cliquez-ici pour voir l’article original