Les coûts environnementaux cachés du numérique

L’une des grandes caractéristiques du numérique, en termes d’impact sectoriel, est son opposition aux secteurs de production plus anciens que sont l’agriculture et l’industrie. En effet en traitant de manière dématérialisée – du moins le pense-t-on – une matière première originale nommée la donnée, ce secteur serait neutre pour l’environnement. Le numérique serait donc un secteur sans pollution ni CO2 que certains n’hésitent d’ailleurs pas à considérer comme le principal atout pour la planète. En passant au tout numérique, on abolirait ainsi les émissions de gaz à effet de serre, la déforestation et la pollution des océans ; autant d’héritages des XIXe et XXe siècles. Il suffit pour s’en convaincre de voir le foisonnement des programmes de recherche liant numérique et environnement pour s’en convaincre. Or s’imaginer que l’économie numérique – tant désirée en France mais qui peine à réellement décoller – serait une panacée pour la planète, relève de l’illusion ou, de manière plus insidieuse, de la dissimulation. Il est en effet de plus en plus facile dans ce monde de green tech d’exporter la pollution à l’autre bout de la Terre.

source

Le numérique, surtout dans une vision prospective, n’est pas un secteur plus vertueux que les autres. Il demeure un secteur avant tout fondé sur la consommation industrielle d’un grand nombre de composants dont l’obsolescence va de pair avec une complexité toujours plus grande. L’explosion des smartphones, tablettes, ordinateurs ou autres serveurs n’est qu’un avant-goût de ce qui se profile avec l’Internet des Objets, dont le nombre d’appareils communicants a d’ores et déjà dépassé celui d’êtres humains sur la planète. Pour construire ces objets – terminaux, capteurs ou effecteurs – auxquels on réclame des performances toujours plus grandes, la demande en matières premières est en train d’exploser. Les terres rares – qui sont devenues depuis quelques temps le symbole des métaux stratégiques au point d’en masquer les autres – sont ainsi particulièrement visées, mais tout autant que d’autres ressources, parfois plus communes, comme le nickel, le cuivre, l’indium ou le gallium. La course aux ressources, le plus souvent géographiquement concentrées, est un enjeu majeur de cette évolution du numérique. L’un des exemples les plus parlants à l’heure actuelle concerne les composants des batteries lithium-ion, au premier rang desquels le lithium, avec d’autres comme le cobalt. D’une extraction très polluante, aux coûts environnementaux et humains élevés, ces matières premières – le plus souvent aux taux de recyclages très faibles – sont au cœur de nos vies actuelles ; et de notre futur. Produites le plus souvent loin des centres de consommation, leur coût environnemental nous apparaît nul, alors même qu’il s’agit ici avant tout d’une externalisation de la pollution. Ce type d’attitude consistant à ne pas prendre en compte les coûts environnementaux sur l’ensemble des chaînes de valeur des objets, conduit à des perceptions erronées comme en témoigne le concept mensonger de « territoire à énergie positive ».

Autre phénomène lié, tout aussi inquiétant, celui du coût énergétique des données. Le plus souvent vues comme des éléments neutres, celles-ci sont bien au contraire centrales dans l’aspect environnemental du numérique. Deux problématiques se complètent à ce titre, d’une part le stockage et d’autre part la transmission. Le stockage concerne avant tout la question de la performance énergétique du refroidissement des data centers, expliquant en partie la localisation de ceux-ci par les GAFA(M) dans certains pays du nord de l’Europe. Toutefois, cette question, même si elle demeure importante, semble de plus en plus prise en compte par les fabricants de serveurs, pour lesquels la performance en matière de refroidissement commence à devenir une question prioritaire. Il n’en demeure pas moins que la consommation énergétique globale du stockage des données dépasse allègrement les 1% du total mondial, faisant du numérique un secteur à l’emprise environnementale non-négligeable sur ce plan.

Plus préoccupante est la question du coût énergétique de la transmission des données. Alors qu’en ce qui concerne les data centers une certaine unification normative a permis aux fabricants de travailler sur ces questions de performance énergétique, l’absence d’unification des protocoles de transmission de données a d’ores et déjà des effets négatifs. En effet le foisonnement des protocoles liés à la transmission sans fil, des classiques Bluetooth, Wifi, 3G et 4G en passant par les plus rares WiMax, ZigBee et 5G, tous ont des intérêts différents en termes de distance et de volume de données transmis, avec en corollaire des consommations énergétiques particulières. L’une des problématiques particulières de l’Internet des Objets, à savoir l’absence d’unification normative sur les protocoles de transmission de données – phénomène qui au sein de l’IoT se retrouve également dans d’autres sous-domaines comme les OS – trouve ici une implication inattendue. Dans son rapport Digitalization and Energy, l’Agence internationale de l’énergie pointe justement cette problématique de la transmission de données comme l’un des principaux enjeux de la performance énergétique du secteur numérique. Avec une croissance de la consommation liée à la transmission de données de l’ordre de 10% par an, ce simple sous-domaine devrait, à l’horizon 2021, représenter au niveau mondial une consommation équivalente à celle du Royaume-Uni, soit environ 320 TWh. La croissance de cette consommation est un effet de bord de la massification des données et de l’explosion prévisible du nombre d’objets connectés communiquant entre eux, malgré des initiatives comme les technologies LPWAN (LoRa, Sigfox, etc.). On a longtemps considéré que la donnée avait un cout de création neutre ; avec la prise en compte de l’aspect énergétique, on se rend compte qu’il n’en est rien.

In fine deux éléments ressortent pour expliquer cette situation des coûts environnementaux cachés. D’une part la question de la chaîne de valeur industrielle à élongation mondiale. Avec celle-ci, les coûts issus des phases les plus amont, comme les métaux stratégiques entrant dans la composition des sous-ensembles, deviennent au mieux un phénomène ignoré, au pire une externalisation de la pollution. Avec cette distanciation, les consommateurs et, dans certains cas, les assembleurs finaux apparaissent inconscients du coût environnemental réel de telle ou telle technologie qui, par ignorance, acquiert un caractère « vert ». D’autre part la question de la normalisation. En l’absence d’une unification technologique de facto ou, dans ce cas, de jure, le foisonnement des technologies conduit à minorer ou reléguer au loin les problématiques connexes à telle ou telle technologie. Dans le cas des protocoles de transmission de données, la question de la consommation énergétique est en effet, globalement, bien secondaire en regard d’autres éléments comme la vitesse ou la sécurité. Si les technologies numériques – Internet en est le meilleur exemple – n’ont que très peu été conçues dès le début avec une préoccupation de sécurité, elles ne l’ont pas non plus été dans une perspective de sobriété. La course à la performance technique a ainsi masqué les externalités négatives de cette dernière qui risquent aujourd’hui – phénomène de mondialisation oblige – de devenir des enjeux primordiaux.

De là il importe de ne pas sombrer dans le pessimisme. Ces problématiques, si elles sont prises en compte, peuvent donner lieu à des solutions et à des travaux d’amélioration. L’exemple de la consommation énergétique des serveurs montre qu’il est possible d’orienter les recherches vers des sous-ensembles moins consommateurs, même si la question est avant tout normative. Concernant les métaux stratégiques, des recherches doivent également être entreprises à la fois dans la substitution des ressources, la découvertes et la mise en production de nouveaux gisements ainsi que – et surtout – dans le recyclage.

Share/Partage

Pour un module cybersec dans le SNU

La question du service national universel a suscité quelques débats et beaucoup d’incertitudes. Il reste que la volonté du président de la République a conduit à sa mise en place prochaine, d’autant que son principe devrait être inscrit dans la Constitution, selon le projet de révision en cours d’examen au Parlement (voir ici).

Source

Il durerait un mois et concernerait toute une classe d’âge, garçons et filles, soit environ 800.000 jeunes âgés de 16 ans. Mais on ne sait pas trop ce qu’il y aura dans ce mois. Il me semble qu’une initiation à la cybersécurité serait un bon élément du programme avec des avantages multiples : développons.

Continue Reading

Share/Partage

L’inexistence du cyberterrorisme

J’avoue que le titre peut sembler provocateur, à une époque où l’on ne cesse de nous expliquer que le Calife est un adepte du terrorisme en tout genre (donc implicitement du cyberterrorisme) et qu’il faut lutter contre le phénomène. TV5 aurait d’ailleurs subi ses foudres. (Et en porterait encore les stigmates ?). Face à cette menace, la détermination doit être sans faille et la mobilisation générale.

Source

On peut cependant être circonspect (comme on l’est face à une « fake news » ?) devant cette unanimité de façade, car peu nombreux sont ceux qui expliquent clairement ce qu’est le cyberterrorisme. Le plus étonnant est que, outre sa définition parfois stupéfiante, ce que l’on présente comme ses manifestations le sont tout autant.

Cependant, quelques éléments peuvent expliquer pourquoi le cyberterrorisme est toujours dans un « entre-deux ».

Continue Reading

Share/Partage

La cybersécurité en réalité virtuelle fusionne Ghost In The Shell et Matrix

Au cours d’une intervention policière, le Major Motoko Kusanagi revêt ses lunettes de réalité augmentée puis pénètre les réseaux numériques et pirate les androïdes ennemis à volonté. Pas d’écran noir. Pas de ligne de code. La « cyborgue » nipponne est immergée dans un univers cyberpunk proliférant d’interfaces 3D animées.

 

Source : ProtectWise


Depuis les années 1990, le manga Ghost In The Shell et les « japanimations » éponymes sont l’inépuisable gisement de la culture geek et du cinéma de science-fiction (Minority Report, I-Robot, Terminator, Matrix, AI, Tron, etc).

L’œuvre culte a grandement inspiré Scott Chaser, PDG et co-fondateur de ProtectWise. Cette société basée au Colorado (Etats-Unis) et spécialisée dans la cybersécurité, a conçu une solution d’interfaces utilisateur nommée Immersive Grid. Dans cet environnement virtuel, chaque élément connecté d’une entreprise (serveur, PC, smartphone, tablette, objet connecté, périphérique, etc) est représenté comme un bâtiment à l’intérieur d’une ville virtuelle. Les serveurs et terminaux de chaque département (marketing, comptabilité, logistique, ressources humaines, etc) forment un quartier ou une zone particulière au cœur d’une géographie urbaine.

Continue Reading

Share/Partage

#FIC 2017 : impression, soleil couchant

L’exercice de rendre compte d’un événement, quelle qu’en soit l’ampleur et le thème, est une véritable difficulté puisqu’il ne peut être que partiel et parfaitement subjectif avec tous les travers et les affects que cela suppose. Aussi resterais-je d’une grande prudence et souligne que les propos tenus ici ne relèvent que de la vision d’un minuscule bout de la lorgnette. Car l’édition 2017 du FIC me laisse perplexe pour plusieurs raisons.

La première d’entre elle est la dimension prise par ce qui est devenu le premier forum français si ce n’est européen (?) dédié à la cybersécurité : entre 6000 et 7000 participants enregistrés pour cette 9ème édition.

Continue Reading

Share/Partage

L’impossible vérité sur le piratage du Parti Démocrate et les hackers russes

Quelques semaines après l’élection de Donald Trump, les agences américaines de renseignement ont publié une synthèse sur le piratage du Parti Démocrate par des hackers russes et la transmission à Wikileaks des emails dérobés en vue de nuire à la campagne électorale de Hillary Clinton. Malheureusement, la crédibilité de ce rapport fut vite cannibalisée par la culture du secret et par les pesanteurs stratégiques et industrielles de la cybersécurité et du renseignement électronique.

Publié en décembre 2016 par plusieurs services américains de sécurité (FBI, CIA, DNI, DHS, US-CERT), le rapport Grizzly Steppe était d’abord et surtout un produit dérivé des conclusions de CrowdStrike et de Fire Eye, firmes spécialisées dans la cybersécurité et l’expertise informatique. Ce document évoque « une activité cyber malicieuse russe », décrit quelques fondamentaux de la guerre d’information made in Russia, et compile des signatures de malwares génériques, des botnets, des fuseaux horaires, des adresses IP et des services Web (Tor, Google, Dropbox, Yahoo!) couramment utilisés par des hackers et des spammers du monde entier… et connus depuis belle lurette par les experts en sécurité informatique qui avaient hâte d’analyser de véritables « indicateurs de compromission » (indicators of compromise) caractérisant précisément la cyberattaque l’intrusion et attribuant incontestablement celle-ci à des hackers russes.

Continue Reading

Share/Partage

L’Echo du bocal avec Doron Lévy

Fidèles lecteurs d’EchoRadar, en ces premiers jours de l’année, notre blogzine poursuit sa mue. Après son extension à d’autres blogueurs, voici en avant-première le tout nouvel « Echo du bocal ». Peu de changements avec la ligne éditoriale de l’Echo du mois, mais la mensualisation ne fonctionnant correctement que pour les impôts (peu de doute qu’ils oublient…), notre publication devient aléatoire. Pour le reste, « nous vous en mettons un ramequin, vous vous ferez une idée »

le-figaro-2010

Nous accueillons aujourd’hui Doron Lévy, criminologue, l’actualité et les débats actuels mettant encore plus en exergue ses propos.

Question 1 : Comment voyez-vous l’évolution de la criminalité dans un  monde de plus en plus cybernétisé ? Le cybercrime étatisé est-il le seul qui pourra être de grande ampleur ?

Les évolutions rapides des technologies et la mondialisation grandissante ont favorisé l’expansion des activités criminelles, souvent difficiles à déceler et utilisant de nouvelles formes d’anonymat. La prévention et la lutte contre ces nouveaux crimes émergents représentent donc un nouveau défi. La seule chose de sûre, c’est que le crime évolue et s’adapte continuellement. Le crime a toujours été un « poisson pilote » de la société.

Continue Reading

Share/Partage

Snowden d’Oliver Stone

Le réalisateur américain Oliver Stone s’est fait une spécialité de produire/réaliser des métrages lorgnant distinctement vers l’approche documentaire, ce qui n’a jamais manqué de susciter d’âpres réactions d’experts et d’historiens sur les thèmes abordés (JFK, W., Alexandre, Wall Street, Platoon etc.). L’émergence d’une génération née au sein de la révolution informatique ne pouvait manquer de l’intéresser, à l’instar de David Fincher et son The Social Network portraiturant Mark Zuckerberg.

snowden

Son choix se porta sur le souffleur d’alerte (whistleblower) américain Edward Snowden qui ébranla les autorités et institutions de son pays d’origine en 2013. En dépit de son thème, celui d’un espion de la National Security Agency qui est pris de stupeur puis de remords par les pratiques opérées par l’institution, Snowden ne s’adresse pas qu’à un public d’ingénieurs informaticiens ou d’experts en cybersécurité. Il vise le grand public : les propos techniques ne sont guère légion et l’avancée dans la trame est suffisamment explicite pour que le spectateur lambda ne s’en trouve pas plongé dans le brouillard. Même si, en dépit des 2 heures et 15 minutes de projection, il arrive que certains passages de la vie de l’analyste et programmeur soient passablement écourtés de manière limite.

Continue Reading

Share/Partage