Le MIT annonce 10 technologies révolutionnaires en 2020

La revue Technologique du MIT a annoncé sa liste des « 10 technologies révolutionnaires » pour 2020, comprenant 10 avancées récentes qui, selon elle, «auront un grand impact sur nos vies».

Depuis 19 ans, dit la publication, cette liste a été un identificateur précoce des développements technologiques clés allant du CRISPR ou du Deep Learning, jusqu’au désormais célèbre « burger sans bœuf ». Les 10 technologies révolutionnaires de cette année vont de l’IA à l’informatique quantique en passant par la médecine et les soins de santé :

  1. Méga-constellations de satellites : nous pouvons désormais construire, lancer et exploiter des dizaines de milliers de satellites en orbite à un prix abordable.
  2. Molécules conçues par l’IA : les scientifiques ont utilisé l’IA pour découvrir des composés de type médicamenteux aux propriétés souhaitables.
  3. IA de poche : nous pouvons désormais exécuter de puissants algorithmes d’IA sur nos téléphones.
  4. Internet quantique : cette année, des chercheurs néerlandais réaliseront une connexion Internet quantique ultra-sécurisée entre Delft et La Haye.
  5. Attribution du changement climatique: pour la première fois, les chercheurs peuvent déterminer en toute confiance si le changement climatique est à l’origine d’un événement météorologique extrême spécifique tel qu’un ouragan, au lieu de simplement rendre ces événements plus fréquents en général.
  6. Médecine hyper-personnalisée : de nouveaux traitements sont désormais conçus pour traiter même les mutations génétiques propres à une seule personne.
  7. Médicaments anti-âge : les premiers médicaments qui traitent les maladies en ciblant un processus de vieillissement naturel dans le corps ont fait leurs preuves dans les tests humains.
  8. Suprématie quantique : Google a fourni la première preuve claire d’un ordinateur quantique surpassant un ordinateur classique.
  9. Monnaie numérique : la montée de la monnaie numérique – pas des crypto-monnaies, mais des versions numériques des monnaies nationales comme le renminbi chinois – menacera la capacité des gens à effectuer des transactions en privé ; il pourrait remettre en cause la domination américaine sur le système financier mondial.
  10. Confidentialité différentielle : cette technique mathématique de pointe mesure précisément comment la confidentialité d’un ensemble de données change lorsque du bruit est injecté. Déjà utilisé par les entreprises de technologie de consommation, il sera utilisé lors du recensement de 2020 pour protéger l’identité de 330 millions d’Américains.

« Notre liste annuelle est appréciée des personnes qui sont en veille technologique », explique Elizabeth Bramson-Boudreau, PDG et éditrice de la MIT Technology Review. « Nos journalistes et rédacteurs passent la majeure partie de l’année à considérer quelles technologies seront réellement qualifiées de percées de l’année. »
Cette année, en plus des articles écrits disponibles sur le site Web du magazine, les percées seront couvertes dans le premier épisode du nouveau podcast de la publication, Deep Tech. « 

Source : https://www.smart2zero.com/news/mit-announces-its-10-breakthrough-technologies-2020/

MIT Technology Review

Articles associés :
IEEE CS unveils its top 12 technology trends for 2020
IEEE: The top 10 technology trends for 2019
Our top 10 tech predictions for 2019 scored a ‘B’, says IEEE CS
5 IoT predictions for 2020

Le ministère de l’Intérieur migre sur la solution libre Nextcloud

Le ministère de l’Intérieur français, à l’instar du ministère néerlandais de l’Éducation, des agences du gouvernement suédois ou encore l’exécutif allemand ont décidé « d’abandonner les solutions cloud américaines et déployer à la place cette solution de cloud privé de conception européenne ».

Cette migration a été décidée sur fond de tensions : le « récent différend sur une taxe numérique en Europe, l’introduction du RGPD et les contestations judiciaires du Cloud Act américain » expose l’entreprise. 

Nextcloud propose une couche logicielle pour assurer la gestion des fichiers stockés par les clients. La solution de productivité auto-hébergée privée est libre, gratuite, la société se rémunérant sur la vente de support et l’aide à l’installation.  

« Le gouvernement français est soucieux de la sécurité des données de ses citoyens et de ses employés. Avec la plate-forme de collaboration de contenu sur site Nextcloud, nous avons opté pour une solution sécurisée et facile à utiliser proposée par le principal fournisseur européen » commente Thierry Markwitz, le sous-directeur des infrastructures au ministère de l’Intérieur. 

La migration de la place Beauvau en interne remonte à plusieurs mois afin d’assurer notamment une phase de test. Désormais, l’objectif est celui d’un déploiement auprès de 100 000 utilisateurs pour l’ensemble du ministère.  

« Le ministère de l’Intérieur a effectué un audit de sécurité interne approfondi, outre une certification. Nous avons répondu à de nombreuses questions relatives à la sécurité et continuons à le faire régulièrement, au fil de ces contrôles » nous commente Frank Karlitschek, le CEO de Nextcloud. L’hébergement étant fait en interne, « cela signifie qu’il n’est pas possible d’y accéder depuis l’extérieur et que tout travail effectué se fait sur site ». 

Selon les informations délivrées par l’éditeur, l’utilisation de la solution par le gouvernement allemand a été approuvée par le Bundesamt für Sicherheit in der Informationstechnik (BSI), équivalent allemand de l’ANSSI. Nextcloud dispose d’ailleurs de deux centres de données, l’un à Stuttgart, l’autre à Francfort et a des employés dans une dizaine de pays européens, outre un au Cap Vert et un autre aux États-Unis

Source : NextInpact – Par Marc Rees le mardi 27 août 2019

Nvidia présente une plateforme IA capable de converser en temps réel

La société de technologies électroniques Nvidia (Santa Clara, Californie), spécialisée dans les unités de traitement graphique (GPU), a annoncé des avancées décisives dans la compréhension du langage permettant une intelligence artificielle conversationnelle en temps réel.

La société Nvidia a annoncé que sa plate-forme d’IA (Intelligence Artificielle) était la première à pouvoir apprendre l’un des modèles des langages d’intelligence artificielle les plus avancés – BERT (Bidirectional Encoder Representations from Transformers) – en moins d’une heure et réaliser une inférence complète d’intelligence artificielle en un peu plus de 2 millisecondes. Un niveau de performance qui permet aux développeurs d’utiliser une compréhension linguistique de pointe pour des applications à grande échelle pouvant être mises à la disposition de centaines de millions de consommateurs à travers le monde.

Bien que les services d’IA conversationnels limités ne soient pas nouveaux, jusqu’à présent, il était extrêmement difficile pour les chatbots, les assistants personnels intelligents et les moteurs de recherche de fonctionner avec un niveau de compréhension humaine, en raison de l’incapacité de déployer des modèles d’IA extrêmement volumineux en temps réel. La société affirme avoir résolu ce problème en ajoutant des optimisations clés à sa plate-forme d’intelligence artificielle : atteindre des records de vitesse dans l’apprentissage et l’inférence en intelligence artificielle et construire le plus grand modèle linguistique du genre à ce jour.

« Les grands modèles linguistiques révolutionnent l’IA pour le langage naturel », déclare Bryan Catanzaro, vice-président de la recherche appliquée sur l’apprentissage approfondi chez Nvidia. « Ils nous aident à résoudre des problèmes linguistiques exceptionnellement difficiles, nous rapprochant ainsi de l’objectif de l’IA véritablement conversationnelle. Le travail novateur de Nvidia, accélérant ces modèles, permet aux organisations de créer de nouveaux services à la pointe de la technologie pouvant assister et émerveiller leurs clients de façon jamais imaginée auparavant. « 

La société affirme avoir optimisé sa plate-forme d’IA avec des optimisations clés qui ont abouti à trois nouveaux records dans la compréhension du langage naturel :

  • L’apprentissage le plus rapide : avec la version longue de BERT, l’un des modèles de langage d’intelligence artificielle les plus avancés au monde, un SuperPOD Nvidia DGX utilisant 92 systèmes Nvidia DGX-2H avec 1472 GPU Nvidia V100, le temps d’apprentissage typique de BERT-Large a été réduit de plusieurs jours à tout juste 53 minutes. De plus, Nvidia a aussi formé BERT-Large sur un seul système Nvidia DGX-2 en 2,8 jours – démontrant ainsi l’évolutivité des GPU Nvidia pour l’IA conversationnelle.
  • Inférence la plus rapide : en utilisant les GPU Nvidia T4 exécutant Nvidia TensorRT, Nvidia a réalisé l’inférence sur le jeu de données BERT-Base SQuAD en seulement 2,2 millisecondes – bien en deçà du seuil de traitement de 10 ms pour de nombreuses applications en temps réel, et une nette amélioration par rapport à 40 millisecondes mesurées
    Modèle le plus vaste : en se concentrant sur le besoin sans cesse croissant des développeurs pour des modèles plus volumineux, Nvidia Research a construit et formé le plus grand modèle de langage au monde basé sur Transformers, le module de technologie utilisé pour BERT et un nombre croissant d’autres modèles d’IA en langage naturel. Le modèle personnalisé de Nvidia, avec 8,3 milliards de paramètres, est 24 fois plus grand que BERT-Large.

La société a mis ses optimisations logicielles à la disposition des développeurs. Des optimisations continues pour accélérer la formation de BERT et de Transformer pour les GPU sur plusieurs frameworks sont disponibles gratuitement sur NGC, le hub de la société pour les logiciels accélérés. Le référentiel BERT GitHub de Nvidia offre le code permettant de reproduire les performances d’apprentissage sur nœud unique cité par la société, et il sera prochainement mis à jour avec les scripts nécessaires pour reproduire les chiffres de performances d’apprentissage à grande échelle cité plus haut.

Pour consulter le code de traitement du langage naturel (NLP) de l’équipe de Nvidia Research sur le projet Megatron, lancé par la société afin d’étudier les réseaux de plus d’un milliard basés sur Transformer, visitez le référentiel Megatron Language Model GitHub 

Source : https://www.electronique-eci.com/news/nvidia-presente-une-plateforme-ia-capable-de-converser-en-temps-reel

28 août 2019 //Par A Delapalisse

Les repères historiques du numérique

Souvent pendant l’introduction à certains cours je suis amené à présenter des jalons historiques (concepts, inventions) qui ont fondé l’environnement numérique dans lequel notre monde baigne désormais. Cet inventaire est finalement plutôt stable.

Mais avant, j’aimerais préciser ce que j’entends par « numérique » : pour moi, il s’agit de la rencontre (le “match”) entre le binaire software et le binaire hardware… ah oui ? Kesako ?

le Binaire Software

Le binaire “software” correspond à la représentation digitale de l’information. Ceci consiste à convertir toute information (idée, quantité, son, image, …) en une forme minimale et irréductible : le binaire, qui n’utilise que deux symboles opposés (vrai/faux, 1/0, oui/non, …). On utilise usuellement les chiffres binaires 1 et 0, ou binary digits (bits) ; c’est pour cette raison que je préfère le mot anglais « digital » à sa mauvaise traduction « numérique ». Ils permettent de faire trois choses essentielles et fondamentales :

  • du calcul (compter en base 2 avec les chiffres 1 et 0)
  • de la logique (raisonner avec les valeurs associées VRAI ou FAUX)
  • de la symbolisation (association de symboles à des combinaisons binaires)

le Binaire Hardware

La technologie, associée à la notion de “hardware” : il s’agit des composants électroniques (voire électromécaniques) qui fonctionnent en mode commuté, avec une position parmi deux : allumé/éteint, ouvert/fermé. Ces composants vont du relais électromécanique au transistor, et permettent de fabriquer les ordinateurs.

Cette conjonction binaire hardware et software a déclenché la digitalisation inexorable de notre monde. Le monde analogique s’en va, certains s’accrochent aux branches en ressortant des disques vinyles, des amplis à tube ou autres Polaroïd… En vain. Nous passons d’un monde analogique, complexe, continu, aléatoire, imprécis, lent, … vers un monde digital, robuste, déterminé, précis, rapide, discontinu. Ces nouveaux qualificatifs d’ailleurs influent sur les esprits, générant ainsi des fractures sociologiques que l’on s’oblige à catégoriser (génération X, Y, Z, …)

Mais revenons à nos moutons. Ceci étant posé, qu’est ce qu’on peut sélectionner comme repères historiques fondamentaux du numérique ?

  • Citons d’abord peut-être Leibniz, qui au hasard de ses réflexions, a été amené à s’interroger sur l’arithmétique binaire vers l’an 1700, à montrer que l’on pouvait calculer sans souci avec uniquement des 1 et des 0, tout en concluant que ceci n’avait guère d’intérêt. Notons que Leibniz a aussi inventé une machine mécanique capable de multiplier.
  • Charles Babbage (UK) imagine vers 1820 une machine analytique, qui associe instructions et calcul, posant ici l’idée fondatrice de l’ordinateur.
  • Ada Lovelace (UK), correspondante de Charles Babbage, va quant à elle formaliser les instructions pour la machine de Babbage, donnant naissance à la notion de programme informatique (algorithme appliqué à un ordinateur).
  • L’architecture dite « de Von Neumann » qui propose en 1945 un système de processeur basé notamment sur une Unité Arithmétique et Logique, et qui permet, notamment, de stocker en mémoire indifféremment des instructions et des données.
  • L’invention des semi-conducteurs – avec notamment le transistor bipolaire en 1947 puis le transistor MOS-FET en 1950- va ouvrir la voie pour la réalisation d’ordinateurs toujours plus compacts et puissants, notamment au travers du …
  • circuit intégré, inventé en 1958, toujours aux US, qui permet d’embarquer sur une “puce” unique, une quantité importante de transistors et autres semi-conducteurs, pour fabriquer par exemple de la mémoire électronique, ou des microprocesseurs.
  • L’invention du microprocesseur, en 1969 par un ingénieur de l’entreprise Intel, Ted Hoff. L’idée fort simple (a priori) est d’embarquer un processeur à base de transistors sur un circuit intégré. Les premiers microprocesseurs embarquaient environ trois mille transistors, les plus récents actuellement embarquent une poignée de milliards de transistors ! Les évolutions technologiques portent aussi sur la vitesse et la performance énergétique de ces composants.
  • Côté système d’exploitation, on pourrait citer de nombreuses choses, nous ne retiendrons que la référence, UNIX, créé en 1969 par M. Ken Thompson et M. Dennis Ritchie, avec au passage l’invention du langage C.
  • Le projet ARPANET (1972) qui a donné naissance en 1974 aux protocoles rois de l’Internet : IP et TCP.
  • Le World Wide Web, inventé en 1990 au CERN (Suisse) par Sir Tim Berners-Lee, qui le lèguera au domaine public en 1992. L’idée est d’associer astucieusement plusieurs principes : Internet (TCP/IP), le protocole HTTP, les hyperliens et le HTML, et le service DNS. Avec l’arrivée des navigateurs WEB graphiques (Netscape notamment), ceci va marquer l’explosion de la popularité de ce qu’on appelle désormais couramment l’Internet.

Au-delà de ces références, on pourrait aussi citer d’autres faits marquants : l’invention de certains types d’ordinateurs (le PC, le MAC, le smartphone), de l’Ethernet, des réseaux mobiles et du Wi-Fi notamment. On devrait également ajouter la liste de grands théoriciens fondateurs (Georges Boole, Alan Turing, Claude Shannon, …) ; il y a d’ailleurs dans cette liste trop peu de Français, parmi lesquels on peut mentionner Louis POUZIN ou Hubert ZIMMERMANN ; il y a également trop peu de femmes, ajoutons en plus d’Ada Lovelace le nom de Grace HOPPER.

Quoiqu’il en soit, dans ce monde baigné d’innovations étourdissantes, il est bon parfois de contempler les fondations stables qui, peu ou prou, sont restées les mêmes depuis tant d’années, et desquelles on a bien du mal à se défaire ; quelques symptômes (parmi de nombreux autres) :

  • La « vitesse » d’adoption de l’IPv6 (finalisée en 1998, la date limite de transition était symboliquement le 6 juin 2006 … Où en sommes-nous aujourd’hui ?)
  • La simplicité des API RESTful, largement utilisées dans les Webservices.
  • L’omniprésence d’UNIX (ou Linux) au sein des services « core » et des supercalculateurs.