La 5G est 90% plus économe en énergie selon Nokia

Une étude réalisée par Nokia et Telefónica a révélé que les réseaux 5G sont jusqu’à 90% plus écoénergétiques que les réseaux traditionnels.

La recherche, qui a été menée sur une période de trois mois, s’est concentrée sur la consommation électrique des systèmes de réseau d’accès radio (RAN ou Radio Access Network) 5G de Nokia dans le réseau de Telefónica.

L’étude a utilisé les stations de base AirScale de Nokia et les systèmes d’antenne adaptative massive MIMO et combiné les lectures de consommation d’énergie réelle de la station de base sur site dans différents scénarios de charge de trafic, allant de 0% à 100%, ainsi qu’une surveillance à distance de la consommation d’énergie réelle via les systèmes de gestion du réseau. 

Le déploiement des réseaux 5G devrait faire augmenter considérablement le trafic, ce qui rend essentiel que l’énergie consommée n’augmente pas au même rythme.

Des tests approfondis ont examiné onze scénarios différents de charge de trafic prédéfinis qui mesuraient l’énergie consommée par Mbps en fonction de la répartition de la charge de trafic. Les résultats ont mis en évidence que la technologie 5G RAN est nettement plus efficace que les technologies existantes en ce qui concerne la consommation d’énergie par unité de trafic de données grâce à des fonctionnalités matérielles et logicielles qui aident à économiser l’énergie.

La 5G a été conçue pour transporter plus de bits de données par watt d’énergie, mais les réseaux nécessiteront des mesures supplémentaires pour améliorer l’efficacité énergétique et minimiser les émissions de CO2 qui seront générées par une augmentation exponentielle du trafic de données, déclare Nokia. Il existe plusieurs fonctionnalités d’économie d’énergie au niveau de la station de base radio et du réseau, telles que les fonctionnalités d’économie d’énergie 5G, les déploiements de petites cellules et une nouvelle architecture et protocoles 5G, qui peuvent être combinées pour améliorer considérablement l’efficacité énergétique des réseaux sans fil.

Nokia et Telefónica développent également une infrastructure de réseau d’énergie intelligente et des fonctionnalités d’économie d’énergie basées sur l’apprentissage automatique et l’intelligence artificielle.

«Notre plus grande contribution pour surmonter les défis mondiaux en matière de durabilité réside dans les solutions et la technologie que nous développons et fournissons. Nous accordons une grande importance à cela. La technologie de Nokia est conçue pour être économe en énergie pendant l’utilisation, mais elle nécessite également moins d’énergie lors de la fabrication. Cette étude importante montre comment les opérateurs mobiles peuvent compenser les gains énergétiques lors de leurs déploiements en les aidant à être plus respectueux de l’environnement tout en leur permettant de réaliser des économies de coûts significatives », a déclaré Tommi Uitto, président des réseaux mobiles chez Nokia.

source : electronique-eci.com

Les routeurs domestiques embarqués dans la guerre des botnets IoT

Un nouveau rapport de Trend Micro met en garde les consommateurs contre une nouvelle vague d’attaques visant à compromettre leurs routeurs domestiques, pour les utiliser dans des « botnets IoT », c’est-à-dire des appareils connectés à Internet qui sont tous infectés et contrôlés par un type commun de malware.

Selon le rapport, il y a eu un pic récent d’attaques ciblant et exploitant les routeurs, en particulier autour du quatrième trimestre 2019. La recherche, indique la société, indique que l’utilisation abusive de ces appareils se poursuivra car les attaquants peuvent facilement monétiser ces infections dans des attaques secondaires sauf si les utilisateurs prennent des mesures pour empêcher leurs appareils d’activer cette activité criminelle.

« Avec une grande majorité de la population qui dépend actuellement des réseaux domestiques pour son travail et ses études, ce qui arrive à votre routeur n’a jamais été aussi important », déclare Jon Clay, directeur des communications mondiales contre les menaces pour Trend Micro. « Les cybercriminels savent qu’une grande majorité des routeurs domestiques ne sont pas sécurisés avec les informations d’identification par défaut et ont multiplié les attaques à grande échelle. »

 » Pour l’utilisateur domestique, c’est détourner sa bande passante et ralentir son réseau « , déclare Clay.  » Pour les entreprises ciblées par des attaques secondaires, ces botnets peuvent totalement détruire un site Web, comme nous l’avons vu lors d’attaques de grande envergure. « 

Les recherches de la société ont révélé une augmentation à partir d’octobre 2019 des tentatives de connexion par force brute contre les routeurs, dans lesquelles les attaquants utilisent un logiciel automatisé pour essayer des combinaisons de mots de passe courantes. Le nombre de tentatives a presque décuplé, passant d’environ 23 millions en septembre à près de 249 millions de tentatives en décembre 2019. Pas plus tard qu’en mars 2020, selon l’entreprise, elle a enregistré près de 194 millions de connexions par force brute.

Un autre indicateur de l’augmentation de l’ampleur de cette menace, selon la société, est que les appareils tentent d’ouvrir des sessions telnet avec d’autres appareils IoT. Parce que telnet n’est pas chiffré, il est préféré par les attaquants – ou leurs botnets – comme moyen de sonder les informations d’identification des utilisateurs. À son apogée, à la mi-mars 2020, près de 16000 appareils ont tenté d’ouvrir des sessions telnet avec d’autres appareils IoT en une seule semaine.

La tendance est préoccupante, dit l’entreprise, et indique que les cybercriminels sont en concurrence les uns avec les autres pour compromettre autant de routeurs que possible afin qu’ils puissent être enrôlés dans des botnets. Ceux-ci sont ensuite vendus sur des sites clandestins, soit pour lancer des attaques par déni de service distribué (DDoS), soit comme moyen d’anonymiser d’autres attaques telles que la fraude au clic, le vol de données et la prise de contrôle de compte. La concurrence est si féroce, dit la société, que les criminels sont connus pour désinstaller tous les logiciels malveillants qu’ils trouvent sur les routeurs ciblés, démarrant les leurs afin qu’ils puissent revendiquer un contrôle total sur l’appareil. Pour l’utilisateur – domestique ou professionnel – un routeur compromis est susceptible de souffrir de problèmes de performances, et si des attaques sont ensuite lancées à partir de cet appareil, son adresse IP peut également être mise sur liste noire, ce qui peut les impliquer dans des activités criminelles et les couper potentiellement des parties clés d’Internet, et même les réseaux d’entreprise.

Comme expliqué dans le rapport, qui met en évidence trois familles de logiciels malveillants de botnet (Mirai, Kaiten et Qbot) il existe un marché noir florissant des logiciels malveillants de botnet et des botnets à la location. Bien que tout appareil IoT puisse être compromis et exploité dans un botnet, les routeurs présentent un intérêt particulier car ils sont facilement accessibles et directement connectés à Internet.

Pour lutter contre cela, dit l’entreprise, les utilisateurs à domicile doivent tenir compte des recommandations suivantes :

  • Assurez-vous qu’un mot de passe fort est utilisé et qu’il est modifié de temps en temps.
  • Assurez-vous que le routeur exécute le dernier micrologiciel (firmware)
  • Vérifiez les journaux (logs) pour détecter un comportement qui n’a pas de sens pour le réseau.
  • Autorisez uniquement les connexions au routeur à partir du réseau local.

Pour en savoir plus, consultez le rapport : « Worm War : The Botnet Battle for IoT Territory » de Trend Micro

Source : https://www.smart2zero.com/news/home-routers-caught-iot-botnet-war

Tesla recrute en Allemagne alors que Daimler licencie en masse

La restructuration mondiale des modèles de mobilité, le déclin du moteur à combustion et surtout la crise corona provoquent actuellement une tempête parfaite dans l’industrie automobile. Le résultat se voit déjà sur le marché de l’emploi: alors qu’une forteresse automobile traditionnelle Daimler supprime beaucoup d’emplois, Tesla recrute à long terme en Allemagne, advienne que pourra.

Tesla prévoit d’embaucher jusqu’à 10 500 travailleurs pour sa Gigafactory près de Berlin, actuellement en construction. Selon cartains médias, les plans de l’usine comprennent une installation complète de production de véhicules, avec fonderie, atelier de carrosserie, atelier de peinture, production de groupe motopropulseur et assemblage final. Une opération en trois équipes est prévue; entre 3 000 et 5 000 personnes doivent travailler dans chaque équipe.
Dans sa demande d’approbation environnementale, Tesla donne des détails sur le nombre d’employés par équipe, selon les médias. On parle également de jusqu’à 12 000 emplois directs.

L’usine prévue sera reliée à l’autoroute A10 via la jonction Freienbrink. Une sortie temporaire sur l’A10 est prévue, que Tesla a l’intention de construire et de financer elle-même jusqu’à ce qu’une nouvelle sortie d’autoroute régulière soit prête. Cependant, la planification de la connexion routière en est encore à ses balbutiements, dit-on.

La planification environnementale n’est pas non plus terminée. Cependant, Tesla a déjà déblayé une partie de la zone à ses propres risques et prépare la construction de l’usine.

En même temps, 600 km plus au sud-ouest, au siège de Daimler à Stuttgart, on réfléchi à autre chose: il s’agit de se débarrasser de travailleurs. Il y a déjà quelques semaines, des rapports indiquaient que 10 000 à 15 000 emplois seraient perdus en raison de la crise du Coronavirus et dans son sillage de l’effondrement des ventes mondiales. Le responsable des ressources humaines de Daimler, Wilfried Porth, a désormais fourni plus de détails: les chiffres diffusés jusqu’à présent ne seront pas suffisants, a déclaré Porth à l’agence de presse allemande dpa. « Le nouveau nombre de licenciements sera nettement plus grand », a déclaré le responsable du personnel. Actuellement, le constructeur automobile emploie quelque 152.000 personnes  dans le monde et plus de 300.000 dans le groupe.

Les suppressions d’emplois ne sont peut-être pas uniquement dues à la crise du Coronavirus. Les coûts doivent également être optimisés, a précisé la société. Et puis il y a aussi la mobilité électrique, où Daimler n’est pas considéré comme un joueur de premièr plan. De plus, des voix s’élèvent pour demander le nettoyage de la gamme de produits déroutante.

Il est à noter que Daimler a décidé de vendre son usine de Hambach en Lorraine où sont fabriquées les voitures de la gamme Smart et Daimler serait en discussions avec Ineos, le géant britannique de la chimie, qui cherche un endroit pour fabriquer son 4×4 développé en collaboration avec Steyer Puch.

Source : ECI électronique – 20 juillet 2020 par A Delapalisse

Routage IP avec Linux et iproute2

Présentation

Je vous propose d’expérimenter le routage IP sous Linux (Debian), grâce aux outils de la suite iproute2, afin de mieux comprendre ce mécanisme essentiel du niveau 3 de l’OSI.

  • Nous allons dans un premier temps installer un environnement de travail virtuel avec deux réseaux locaux « fermés » (LAN1 et LAN2) et trois machines légères : une dans chaque LAN et une avec « une patte » dans chaque réseau local.
  • Puis nous mettrons en œuvre un routage statique entre ces deux réseaux.

Il est recommandé de connaître le Protocole Internet (IP) et le principe du routage associé. Pour plus de clarté, nous n’utiliserons dans ces travaux que le protocole IPv4 ; le principe reste le même pour IPv6.

A propos d’iproute2

On désigne par iproute2 est une collection d’utilitaires pour la gestion des protocoles TCP, UDP, IP et la gestion du réseau sous Linux, supportant l’IPv4 et l’IPv6. La collection iproute2 est destinée à remplacer toute une suite d’outils réseau standard Unix (appelée net-tools) qui étaient anciennement utilisés pour les tâches de configuration d’interfaces réseau, tables de routage, et gestion de table ARP. La suite net-tools est dépréciée, il est recommandé de ne plus l’utiliser.

Voici quelques exemples d’outils net-tools remplacés par iproute2 :

UsageAncien outil net-toolsCommande iproute2
Adressage (niv. 2)ifconfigip link
Adressage (niv. 3)ifconfigip addr
Routagerouteip route
Résolution d’adressesarpip neigh
VLANvconfigip link
Tunnelsiptunnelip tunnel
Multicastipmaddrip maddr
Statistiquesnetstatss
Source : Wikipedia

Préparation

Nous allons utiliser notre logiciel hyperviseur préféré pour créer trois machines GNU/Linux minimales  :

Nom de la VMhostname Unix
Debian AdebianA
Debian BdebianB
Debian XdebianX
Nous aurons besoin de trois machines virtuelles Debian minimales.

Pour créer ces machines, voir le tutoriel de référence dédié à cela. Les caractéristiques communes initiales de nos trois machines sont :

  • 1 CPU
  • 1 GB RAM
  • 1 HDD 10 GB
  • 1 interface réseau en mode pont (bridge)

Préparation des VM

Le PC hôte de nos VM doit être connecté à Internet afin que chaque VM soit elle-même connectée à Internet via la connexion bridge (recommandé) ; en cas de difficulté avec le mode bridge, on peut aussi utiliser le NAT de l’hyperviseur.

Toutes les commandes à suivre sont réalisées en mode console, connecté avec l’utilisateur root.

On vérifie la connexion à Internet, en testant la connexion à une adresse IP externe connue (ici le DNS Cloudflare) :

# ping 1.1.1.1
Un ping 1.1.1.1 fonctionnel ; on le stoppe avec [CTRL]-[C]

et à un DNS fonctionnel :

# ping debian.org
ping avec résolution de nom (debian.org renvoie ici à l’IP publique 130.89.148.77)

On commence par les opérations classiques de mise à jour. On met à jour la base de données du gestionnaire de paquets Debian :

# apt update
# apt update ; le résultat indique ici qu’il y a des paquets qui peuvent être mis à jour.

Puis on procède aux mises à jour s’il y en a :

# apt upgrade
# apt upgrade met à jour ici deux paquets.

Éventuellement un peu de ménage (dans notre cas c’est juste pour rappeler les commandes ; et encore, on pourrait aller plus loin à ce sujet) :

# apt clean
# apt autoremove

Enfin, on installe sur chaque machine les utilitaires tcpdump et traceroute :

# apt install -y tcpdump traceroute

Ces opérations sont à faire pour chaque VM ; on peut aussi le faire pour une, puis la cloner deux fois (attention à bien générer de nouvelles adresses MAC pour les interfaces réseau).

Connexion des cartes réseau aux segments LAN

Une fois les trois machines préparées, il faut les éteindre :

# poweroff

Il faut maintenant modifier le « hardware virtuel » des VM afin de créer l’infrastructure suivante (on utilise les réseaux internes de l’hyperviseur) :

Attention, dans cette configuration, les machines ne seront plus connectées à Internet.

Voici la configuration sous VirtualBOX de l’interface réseau de debianA connectée au réseau interne LAN1 :

Puis la configuration pour debianB qui est sur LAN2 :

La machine debianX quant à elle dispose de deux cartes réseau, une sur chaque LAN :

La carte 1 sur le LAN1, on repère l’adresse MAC.
La carte 2 sur le LAN2.

Enfin, nous modifions le nom de chaque machine (hostname), si besoin (notamment si vous avez procédé par clonage ; car lors de l’installation Debian, le nom de machine est demandé)  :

A# echo "debianA" > /etc/hostname

NB : par convention, quand c’est utile, je fais précéder le prompt (# ou $) du nom de la machine concernée (A, B, ou X)

B# echo "debianB" > /etc/hostname
X# echo "debianX" > /etc/hostname

Les machines doivent être redémarrées pour que le hostname soit pris en compte :

# reboot

Configuration des adresses IP

Nous utiliserons donc la suite de commandes iproute2, devenue le standard sur les systèmes GNU/Linux.

La commande ip link show (que l’on peut abréger avec ip link et même ip l), permet d’afficher les interfaces disponibles. Ajoutons l’option -c pour avoir un peu de couleur :

X# ip -c l
Nous voyons nos deux interfaces Ethernet, ici eth0 et eth1

Grâce aux adresses MAC, on peut valider quelle interface est en lien avec quel réseau. Ici, eth0 (adresse MAC 08:00:27:83:7C:BB) est clairement la carte qui est connectée au LAN1, selon le repérage effectué juste avant.

La carte eth1 est DOWN, car elle a été ajoutée après l’installation, donc non préconfigurée, et elle n’est pas encore configurée dans le système.

Nous pouvons attribuer l’adresse IPv4 192.168.10.1/24 à la machine A sur son interface eth0 (si c’est son nom ; avec vmware workstation par exemple, elle aurait pu s’appeler ens32) :

A# ip addr add 192.168.10.1/24 dev eth0
A# ip -c a

Cependant, cette configuration ne sera pas persistante au prochain redémarrage du système.

Pour ce faire, il faut modifier le fichier de configuration des interfaces réseau :

A# nano /etc/network/interfaces 
[...]
allow-hotplug eth0
iface eth0 inet static
address 192.168.10.1/24

NB : nano est dans ce cas l’éditeur de texte, mais ça peut être un autre, comme vi ou vim.

NB : la configuration de eth0 est précédée de celle de la boucle « loopback » (lo) et de quelques commentaires . Attention aux erreurs de frappe qui « décommentent » par mégarde certaines lignes dans les fichiers de configuration… et plantent l’initialisation correcte du système.

Après un reboot de la machine, la configuration IPv4 est validée :

Il nous faut paramétrer maintenant les autres machines. D’abord la debianB :

B# nano /etc/network/interfaces 
[...]
allow-hotplug eth0
iface eth0 inet static
address 192.168.11.1/24

Puis la debianX, avec ses deux cartes eth0 et eth1 :

X# nano /etc/network/interfaces 
[...]
allow-hotplug eth0
iface eth0 inet static
address 192.168.10.254/24

allow-hotplug eth1
iface eth1 inet static
address 192.168.11.254/24

et voilà pour la debianX (après un reboot bien sûr) :

Test de fonctionnement

Une fois tout cela en place, il doit être possible de « pinger » la machine X depuis la machine A :

A# ping 192.168.10.254

Et de « pinger » la machine X depuis la machine B :

B# ping 192.168.11.254

Et enfin de « pinger » les machines A et B depuis la machine X :

X# ping 192.168.10.1
X# ping 192.168.11.1

Obtenez-vous des résultats encourageants ? J’espère pour vous, car sinon c’est parti pour une petite séance de debugging, et ça, ce n’est jamais drôle (mais ça fait partie du métier !)

Par contre, il n’est (normalement) pas possible de pinger la machine B depuis la machine A :

A# ping 192.168.11.1

En effet, la machine debianA ne « connaît » pas ce réseau 192.168.11.0/24, et encore moins le moyen de s’y rendre.

Petit focus sur le voisinage réseau (ARP)

Regardons quelques commandes iproute2 qui permettent de gérer le cache ARP de la machine. En effet, chaque machine disposant d’une pile (stack) IP gère une table d’association [adresse MAC] <> [adresse IP]. Chaque entrée de cette table a par ailleurs une durée de vie limitée. Essayez ces quelques commandes :

A# ping 192.168.10.254
A# ip neigh
A# ip n
A# ip n flush all
A# ip n
A# ping -c 1 192.168.10.254 && watch ip n

Avec la dernière commande, vous pourrez normalement voir l’évolution d’une entrée ARP entre les états DELAY, REACHABLE (atteignable) et STALE (périmé).

On peut aussi créer une association permanente (attention c’est touchy) :

A# ip n add 192.168.10.254 lladdr 08:00:27:83:7C:BB dev eth0
A# ip n flush all
A# ip n
A# ip n del 192.168.10.254 lladdr 08:00:27:83:7C:BB dev eth0
A# ip n

L’usage d’entrées ARP permanentes peut avoir deux raisons :

  • éviter dans un réseau très dense des requêtes ARP,
  • empêcher l’ARP « spoofing », où des machines se font passer pour d’autres lors des requêtes ARP.

Mise en place du routage sur la machine debianX

Par défaut, le routage n’est pas activé sur une machine Linux standard, et notamment ici sur la machine debianX. Il faut donc activer le routage IPv4 sur notre machine X :

X# sysctl -w net.ipv4.ip_forward=1

Profitons-en au passage pour désactiver intégralement la gestion de l’IPv6 sur notre machine (quand on n’a pas envie de gérer quelque chose, il vaut mieux le désactiver que de laisser les réglages par défaut) :

X# sysctl -w net.ipv6.conf.all.disable_ipv6=1

Les commandes sysctl permettent de configurer certaines fonctions du noyau Linux. Les deux commandes que nous venons de lancer fonctionnent, mais ne sont pas persistantes. Pour ce faire, il faut modifier le fichier adéquat :

X# nano /etc/sysctl.conf

et ajouter les deux lignes suivantes :

net.ipv4.ip_forward=1
net.ipv6.conf.all.disable_ipv6=1

Il est probable que la première existe déjà, mais qu’elle soit commentée (et donc désactivée). Puis on relance la machine X, et on vérifie que le routage IPv4 est activé, et qu’il n’a plus d’adresse IPv6 :

X# reboot
...
X# sysctl net.ipv4.ip_forward
X# ip -c a

Tables de routage

Quelle commande permet d’afficher la table de routage actuelle de chaque machine ?

# ip route

Ce qui doit nous donner, pour chacune des machines A, B, X :

192.168.10.0/24 dev eth0 proto kernel scope link src 192.168.10.1
192.168.11.0/24 dev eth0 proto kernel scope link src 192.168.11.1
192.168.10.0/24 dev eth0 proto kernel scope link src 192.168.10.254
192.168.11.0/24 dev eth1 proto kernel scope link src 192.168.11.254

Lancer l’utilitaire tcpdump sur la machine X afin de visualiser les paquets ICMP qui transitent sur son interface reliée à LAN1 :

X# tcpdump -i eth0 icmp

Quelle est la commande à lancer pour activer un routage IP de la machine A vers la machine B ?

A# ip route add 192.168.11.0/24 via 192.168.10.254 dev eth0

Traduction : pour joindre le réseau 192.168.11.0/24, il faut passer par la passerelle (gateway) 192.168.10.254, via l’interface eth0 (rappel évident : une passerelle doit toujours faire partie d’un réseau auquel je suis directement connecté).

Que donne un ping de A vers B désormais ?

A# ping 192.168.11.1

ça ne fonctionne pas. Si on analyse les résultats affichés sur le tcpdump qui tourne sur X, on devine la cause du problème. Il ne faut pas oublier qu’un ping c’est une demande (request) de A vers B, suivi d’une réponse (reply) de B vers A, pour valider la bonne connexion de niveau 3 (IP). Il manque donc ici le message retour de B vers A, donc la route de B vers A.

Quelles est la commande pour activer un routage IP de la machine B vers la machine A ?

B# ip route add 192.168.10.0/24 via 192.168.11.254 dev eth0

Et c’est la joie dans la place ! la route est en place de bout en bout :

Capture d’écran de la machine routeur debianX, avec tcpdump

La commande traceroute permet de savoir le chemin emprunté pour joindre la machine distante :

A# traceroute 192.168.11.1

On voit clairement que le paquet est d’abord passé par la machine X, avant de joindre la machine B :

Persistance des routes statiques

Après avoir contemplé la magie du routage IP (ce mécanisme est le fondement de la majorité des échanges sur Internet), nous ne saurions être pleinement satisfait si les routes statiques que nous avons réalisées n’étaient pas persistantes.

Qu’à cela ne tienne.

Nous allons nous rendre dans le répertoire du système prévu justement pour des scripts qui sont exécutés à chaque fois qu’une interface du réseau est « up » :

A# cd /etc/network/if-up.d

Et ajoutons un script pour chaque machine (ici la debianA) :

A# nano route_x

A priori, on l’imagine simplement contenant deux lignes :

  • Le « shebang » qui indique que c’est un script texte et le shell à utiliser
  • La commande d’ajout de la route
#!/usr/bin/env bash
ip route add 192.168.11.0/24 via 192.168.10.254 dev eth0

Il ne faut pas oublier de le rendre exécutable :

A# chmod +x route_x

Après redémarrage de la machine, vous pourrez vous rendre compte que ça ne fonctionne pas très bien… Si, si. La route statique existe, sans doute, mais vous aurez aperçu un petit [FAILED] dans la séquence de démarrage, et le service networking est en réalité HS, voyez par vous-même :

# systemctl status networking

En fait, ce script, que l’on voit de-ci de-là comme solution pour une route statique, n’est pas satisfaisant.

D’abord, dans un script, il faut prendre la bonne habitude d’écrire les commandes avec un chemin absolu, et non relatif, comme ici (« ip … »), donc déjà :

#!/usr/bin/env bash
/sbin/ip route add 192.168.11.0/24 via 192.168.10.254 dev eth0

D’autre part, les scripts présents dans if-up.d sont lancés pour chaque interface qui passe UP, ainsi qu’une fois supplémentaire quand toutes sont UP. A chaque fois, la variable $IFACE contiendra le nom de l’interface en question (et aura la valeur « –all » pour le dernier cas).

Notre script sera donc plus correct ainsi :

#!/usr/bin/env bash
if [ "$IFACE" = "eth0" ] ; then
  /sbin/ip route add 192.168.11.0/24 via 192.168.10.254 dev eth0
fi

Relancer les machines, et vérifier que cette fois, tout est fonctionnel, sans erreur, paisible et serein.

Est-ce la seule méthode ?

Il existe (au moins) une autre méthode pour créer cette route statique persistante : au lieu de créer un script dans le répertoire if-up.d, on peut insérer la commande de création de la route directement dans le fichier de configuration des interfaces, grâce à la directive post-up :

Par exemple ici pour la machine A (fichier /etc/network/interfaces):

[...]
allow-hotplug eth0
iface eth0 inet static
address 192.168.10.1/24
post-up /sbin/ip route add 192.168.11.0/24 via 192.168.10.254 dev eth0

Conclusion

Nous avons donc pu au travers d’une maquette simple expérimenter les fondamentaux du routage avec Linux, utiliser quelques outils iproute2 et aborder quelques point importants. J’espère que ce tutoriel vous aura plu.

Pour en savoir plus sur iproute2 : https://inetdoc.net/guides/lartc/lartc.iproute2.html

Dernière mise à jour : 30/12/2021

Le MIT annonce 10 technologies révolutionnaires en 2020

La revue Technologique du MIT a annoncé sa liste des « 10 technologies révolutionnaires » pour 2020, comprenant 10 avancées récentes qui, selon elle, «auront un grand impact sur nos vies».

Depuis 19 ans, dit la publication, cette liste a été un identificateur précoce des développements technologiques clés allant du CRISPR ou du Deep Learning, jusqu’au désormais célèbre « burger sans bœuf ». Les 10 technologies révolutionnaires de cette année vont de l’IA à l’informatique quantique en passant par la médecine et les soins de santé :

  1. Méga-constellations de satellites : nous pouvons désormais construire, lancer et exploiter des dizaines de milliers de satellites en orbite à un prix abordable.
  2. Molécules conçues par l’IA : les scientifiques ont utilisé l’IA pour découvrir des composés de type médicamenteux aux propriétés souhaitables.
  3. IA de poche : nous pouvons désormais exécuter de puissants algorithmes d’IA sur nos téléphones.
  4. Internet quantique : cette année, des chercheurs néerlandais réaliseront une connexion Internet quantique ultra-sécurisée entre Delft et La Haye.
  5. Attribution du changement climatique: pour la première fois, les chercheurs peuvent déterminer en toute confiance si le changement climatique est à l’origine d’un événement météorologique extrême spécifique tel qu’un ouragan, au lieu de simplement rendre ces événements plus fréquents en général.
  6. Médecine hyper-personnalisée : de nouveaux traitements sont désormais conçus pour traiter même les mutations génétiques propres à une seule personne.
  7. Médicaments anti-âge : les premiers médicaments qui traitent les maladies en ciblant un processus de vieillissement naturel dans le corps ont fait leurs preuves dans les tests humains.
  8. Suprématie quantique : Google a fourni la première preuve claire d’un ordinateur quantique surpassant un ordinateur classique.
  9. Monnaie numérique : la montée de la monnaie numérique – pas des crypto-monnaies, mais des versions numériques des monnaies nationales comme le renminbi chinois – menacera la capacité des gens à effectuer des transactions en privé ; il pourrait remettre en cause la domination américaine sur le système financier mondial.
  10. Confidentialité différentielle : cette technique mathématique de pointe mesure précisément comment la confidentialité d’un ensemble de données change lorsque du bruit est injecté. Déjà utilisé par les entreprises de technologie de consommation, il sera utilisé lors du recensement de 2020 pour protéger l’identité de 330 millions d’Américains.

« Notre liste annuelle est appréciée des personnes qui sont en veille technologique », explique Elizabeth Bramson-Boudreau, PDG et éditrice de la MIT Technology Review. « Nos journalistes et rédacteurs passent la majeure partie de l’année à considérer quelles technologies seront réellement qualifiées de percées de l’année. »
Cette année, en plus des articles écrits disponibles sur le site Web du magazine, les percées seront couvertes dans le premier épisode du nouveau podcast de la publication, Deep Tech. « 

Source : https://www.smart2zero.com/news/mit-announces-its-10-breakthrough-technologies-2020/

MIT Technology Review

Articles associés :
IEEE CS unveils its top 12 technology trends for 2020
IEEE: The top 10 technology trends for 2019
Our top 10 tech predictions for 2019 scored a ‘B’, says IEEE CS
5 IoT predictions for 2020

Le ministère de l’Intérieur migre sur la solution libre Nextcloud

Le ministère de l’Intérieur français, à l’instar du ministère néerlandais de l’Éducation, des agences du gouvernement suédois ou encore l’exécutif allemand ont décidé « d’abandonner les solutions cloud américaines et déployer à la place cette solution de cloud privé de conception européenne ».

Cette migration a été décidée sur fond de tensions : le « récent différend sur une taxe numérique en Europe, l’introduction du RGPD et les contestations judiciaires du Cloud Act américain » expose l’entreprise. 

Nextcloud propose une couche logicielle pour assurer la gestion des fichiers stockés par les clients. La solution de productivité auto-hébergée privée est libre, gratuite, la société se rémunérant sur la vente de support et l’aide à l’installation.  

« Le gouvernement français est soucieux de la sécurité des données de ses citoyens et de ses employés. Avec la plate-forme de collaboration de contenu sur site Nextcloud, nous avons opté pour une solution sécurisée et facile à utiliser proposée par le principal fournisseur européen » commente Thierry Markwitz, le sous-directeur des infrastructures au ministère de l’Intérieur. 

La migration de la place Beauvau en interne remonte à plusieurs mois afin d’assurer notamment une phase de test. Désormais, l’objectif est celui d’un déploiement auprès de 100 000 utilisateurs pour l’ensemble du ministère.  

« Le ministère de l’Intérieur a effectué un audit de sécurité interne approfondi, outre une certification. Nous avons répondu à de nombreuses questions relatives à la sécurité et continuons à le faire régulièrement, au fil de ces contrôles » nous commente Frank Karlitschek, le CEO de Nextcloud. L’hébergement étant fait en interne, « cela signifie qu’il n’est pas possible d’y accéder depuis l’extérieur et que tout travail effectué se fait sur site ». 

Selon les informations délivrées par l’éditeur, l’utilisation de la solution par le gouvernement allemand a été approuvée par le Bundesamt für Sicherheit in der Informationstechnik (BSI), équivalent allemand de l’ANSSI. Nextcloud dispose d’ailleurs de deux centres de données, l’un à Stuttgart, l’autre à Francfort et a des employés dans une dizaine de pays européens, outre un au Cap Vert et un autre aux États-Unis

Source : NextInpact – Par Marc Rees le mardi 27 août 2019

Nvidia présente une plateforme IA capable de converser en temps réel

La société de technologies électroniques Nvidia (Santa Clara, Californie), spécialisée dans les unités de traitement graphique (GPU), a annoncé des avancées décisives dans la compréhension du langage permettant une intelligence artificielle conversationnelle en temps réel.

La société Nvidia a annoncé que sa plate-forme d’IA (Intelligence Artificielle) était la première à pouvoir apprendre l’un des modèles des langages d’intelligence artificielle les plus avancés – BERT (Bidirectional Encoder Representations from Transformers) – en moins d’une heure et réaliser une inférence complète d’intelligence artificielle en un peu plus de 2 millisecondes. Un niveau de performance qui permet aux développeurs d’utiliser une compréhension linguistique de pointe pour des applications à grande échelle pouvant être mises à la disposition de centaines de millions de consommateurs à travers le monde.

Bien que les services d’IA conversationnels limités ne soient pas nouveaux, jusqu’à présent, il était extrêmement difficile pour les chatbots, les assistants personnels intelligents et les moteurs de recherche de fonctionner avec un niveau de compréhension humaine, en raison de l’incapacité de déployer des modèles d’IA extrêmement volumineux en temps réel. La société affirme avoir résolu ce problème en ajoutant des optimisations clés à sa plate-forme d’intelligence artificielle : atteindre des records de vitesse dans l’apprentissage et l’inférence en intelligence artificielle et construire le plus grand modèle linguistique du genre à ce jour.

« Les grands modèles linguistiques révolutionnent l’IA pour le langage naturel », déclare Bryan Catanzaro, vice-président de la recherche appliquée sur l’apprentissage approfondi chez Nvidia. « Ils nous aident à résoudre des problèmes linguistiques exceptionnellement difficiles, nous rapprochant ainsi de l’objectif de l’IA véritablement conversationnelle. Le travail novateur de Nvidia, accélérant ces modèles, permet aux organisations de créer de nouveaux services à la pointe de la technologie pouvant assister et émerveiller leurs clients de façon jamais imaginée auparavant. « 

La société affirme avoir optimisé sa plate-forme d’IA avec des optimisations clés qui ont abouti à trois nouveaux records dans la compréhension du langage naturel :

  • L’apprentissage le plus rapide : avec la version longue de BERT, l’un des modèles de langage d’intelligence artificielle les plus avancés au monde, un SuperPOD Nvidia DGX utilisant 92 systèmes Nvidia DGX-2H avec 1472 GPU Nvidia V100, le temps d’apprentissage typique de BERT-Large a été réduit de plusieurs jours à tout juste 53 minutes. De plus, Nvidia a aussi formé BERT-Large sur un seul système Nvidia DGX-2 en 2,8 jours – démontrant ainsi l’évolutivité des GPU Nvidia pour l’IA conversationnelle.
  • Inférence la plus rapide : en utilisant les GPU Nvidia T4 exécutant Nvidia TensorRT, Nvidia a réalisé l’inférence sur le jeu de données BERT-Base SQuAD en seulement 2,2 millisecondes – bien en deçà du seuil de traitement de 10 ms pour de nombreuses applications en temps réel, et une nette amélioration par rapport à 40 millisecondes mesurées
    Modèle le plus vaste : en se concentrant sur le besoin sans cesse croissant des développeurs pour des modèles plus volumineux, Nvidia Research a construit et formé le plus grand modèle de langage au monde basé sur Transformers, le module de technologie utilisé pour BERT et un nombre croissant d’autres modèles d’IA en langage naturel. Le modèle personnalisé de Nvidia, avec 8,3 milliards de paramètres, est 24 fois plus grand que BERT-Large.

La société a mis ses optimisations logicielles à la disposition des développeurs. Des optimisations continues pour accélérer la formation de BERT et de Transformer pour les GPU sur plusieurs frameworks sont disponibles gratuitement sur NGC, le hub de la société pour les logiciels accélérés. Le référentiel BERT GitHub de Nvidia offre le code permettant de reproduire les performances d’apprentissage sur nœud unique cité par la société, et il sera prochainement mis à jour avec les scripts nécessaires pour reproduire les chiffres de performances d’apprentissage à grande échelle cité plus haut.

Pour consulter le code de traitement du langage naturel (NLP) de l’équipe de Nvidia Research sur le projet Megatron, lancé par la société afin d’étudier les réseaux de plus d’un milliard basés sur Transformer, visitez le référentiel Megatron Language Model GitHub 

Source : https://www.electronique-eci.com/news/nvidia-presente-une-plateforme-ia-capable-de-converser-en-temps-reel

28 août 2019 //Par A Delapalisse

Les repères historiques du numérique

Souvent pendant l’introduction à certains cours je suis amené à réfléchir aux jalons historiques (concepts, inventions) qui ont fondé l’environnement numérique dans lequel notre monde baigne désormais. Cet inventaire est finalement plutôt stable.

Mais avant, j’aimerais préciser ce que j’entends par « numérique » : pour moi, il s’agit de la rencontre (le “match”) entre le binaire software et le binaire hardware… ah oui ? Kesako ?

le Binaire Software

Le binaire “software” correspond à la représentation digitale de l’information. Ceci consiste à convertir toute information (idée, quantité, son, image) en une forme minimale et irréductible : le binaire, qui n’utilise que deux symboles opposés (vrai/faux, 1/0, oui/non, …). On utilise usuellement les chiffres binaires 1 et 0, ou binary digits (bits) ; c’est pour cette raison que je préfère le mot anglais « digital » à sa mauvaise traduction « numérique ». Ils permettent de faire trois choses essentielles et fondamentales :

  • du calcul (compter en base 2 avec les chiffres 1 et 0)
  • de la logique (raisonner avec les valeurs associées VRAI ou FAUX)
  • de la symbolisation (association de symboles à des combinaisons binaires)

le Binaire Hardware

La technologie, associée à la notion de “hardware” : il s’agit des composants électroniques (voire électromécaniques) qui fonctionnent en mode commuté, avec une position parmi deux : allumé/éteint, ouvert/fermé. Ces composants vont du relais électromécanique au transistor, et permettent de fabriquer les ordinateurs.

Cette conjonction binaire hardware et software a déclenché la digitalisation inexorable de notre monde. Le monde analogique s’en va, certains s’accrochent aux branches en ressortant des disques vinyles, des amplis à tube ou autres Polaroïd… En vain. Nous passons d’un monde analogique, complexe, continu (infini), aléatoire, imprécis, lent, … vers un monde digital, précis, robuste, déterminé, rapide, discret (fini). Ces nouveaux qualificatifs d’ailleurs influent sur les esprits, générant ainsi des fractures sociologiques que l’on s’oblige à catégoriser (génération X, Y, Z, …)

Mais revenons à nos moutons. Ceci étant posé, qu’est ce qu’on peut sélectionner comme repères historiques fondamentaux du numérique ?

  • Citons d’abord peut-être Leibniz, qui au hasard de ses réflexions, a été amené à s’interroger sur l’arithmétique binaire vers l’an 1700, à montrer que l’on pouvait calculer sans souci avec uniquement des 1 et des 0, tout en concluant que ceci n’avait guère d’intérêt. Notons que Leibniz a aussi inventé une machine mécanique capable de multiplier.
  • Charles Babbage (UK) imagine vers 1820 une machine analytique, qui associe instructions et calcul, posant ici l’idée fondatrice de l’ordinateur.
  • Ada Lovelace (UK), correspondante de Charles Babbage, va quant à elle formaliser les instructions pour la machine de Babbage, donnant naissance à la notion de programme informatique (algorithme appliqué à un ordinateur).
  • L’architecture dite “de Von Neumann“, datant de 1945, qui propose un système de processeur basé notamment sur une Unité Arithmétique et Logique, et qui permet, notamment, de stocker en mémoire indifféremment des instructions et des données.
  • L’invention des semi-conducteurs, et notamment du transistor, par une équipe de chercheurs des laboratoires Bell (US), en 1947. Le transistor va ouvrir la voie pour la réalisation d’ordinateurs toujours plus compacts et puissants, notamment au travers du …
  • circuit intégré, inventé en 1958, toujours aux US, qui permet d’embarquer sur une “puce” unique, une quantité importante de transistors et autres semi-conducteurs, pour fabriquer par exemple de la mémoire électronique, ou des microprocesseurs.
  • L’invention du microprocesseur, en 1969 par un ingénieur de l’entreprise Intel, Ted Hoff. L’idée fort simple (a priori) est d’embarquer un processeur à base de transistors sur un circuit intégré. Bingo ! Les premiers microprocesseurs embarquaient environ trois mille transistors, les plus récents actuellement embarquent une poignée de milliards de transistors. Mazette ! Les évolutions technologiques portent aussi sur la vitesse et la performance énergétique de ces composants.
  • Côté système d’exploitation, on pourrait citer de nombreuses choses, nous ne retiendrons que la référence, UNIX, créé en 1969 par M. Ken Thompson et M. Dennis Ritchie, avec au passage l’invention du langage C.
  • Le projet ARPANET (1972) qui a donné naissance en 1974 aux protocoles rois de l’Internet : IP et TCP.
  • Le World Wide Web, inventé en 1990 au CERN (Suisse) par Sir Tim Berners-Lee, qui le lèguera au domaine public en 1992. L’idée est d’associer astucieusement plusieurs principes : Internet (TCP/IP), le protocole HTTP, les hyperliens et le HTML, et le service DNS. Avec l’arrivée des navigateurs WEB graphiques (Netscape notamment), ceci va marquer l’explosion de la popularité de ce qu’on appelle désormais couramment l’Internet.

Au-delà de ces point de références, on pourrait aussi citer d’autres faits marquants : l’invention de certains types d’ordinateurs (le PC, le MAC), de l’Ethernet, des réseaux mobiles, du WiFi et du smartphone notamment. On devrait également ajouter la liste de grands théoriciens fondateurs (Georges Boole, Alan Turing, Claude Shannon, …) ; il y a d’ailleurs dans cette liste trop peu de Français, parmi lesquels on peut mentionner Louis POUZIN ; il y a également trop peu de femmes, ajoutons en plus d’Ada Lovelace le nom de Grace HOPPER.

Quoiqu’il en soit, dans ce monde baigné d’innovations étourdissantes, il est bon parfois de contempler les fondations stables qui, peu ou prou, sont restées les mêmes depuis tant d’années, et desquelles on a bien du mal à se défaire ; quelques symptômes (parmi de nombreux autres) :

  • La vitesse d’adoption de l’IPv6 (finalisée en 1998, la date limite de transition était symboliquement le 6 juin 2006 – 6/6/6. Où en sommes-nous aujourd’hui ?)
  • La simplicité des API RESTful, largement utilisées dans les Webservices.
  • L’omniprésence d’UNIX (ou Linux) au sein des services « core » et des supercalculateurs.