Archives pour la catégorie technologie

A Cyberattack in Saudi Arabia Had a Deadly Goal. Experts Fear Another Try


A Cyberattack in Saudi Arabia Had a Deadly Goal. Experts Fear Another Try dans - climat politique merlin_132450284_2c948678-7181-4069-9566-588096d4fc0d-superJumbo

Sadara Chemical Company is a joint venture between Saudi Aramco and Dow Chemical. Its computer systems were hit by one in a string of cyberattacks last year. CreditChristophe Viseux for The New York Times

In August, a petrochemical company with a plant in Saudi Arabia was hit by a new kind of cyberassault. The attack was not designed to simply destroy data or shut down the plant, investigators believe. It was meant to sabotage the firm’s operations and trigger an explosion.

The attack was a dangerous escalation in international hacking, as faceless enemies demonstrated both the drive and the ability to inflict serious physical damage. And United States government officials, their allies and cybersecurity researchers worry that the culprits could replicate it in other countries, since thousands of industrial plants all over the world rely on the same American-engineered computer systems that were compromised.

Investigators have been tight-lipped about the August attack. They still won’t identify the company or the country where it is based and have not identified the culprits.

But the attackers were sophisticated and had plenty of time and resources, an indication that they were most likely supported by a government, according to more than a dozen people, including cybersecurity experts who have looked into the attack and asked not to be identified because of the confidentiality of the continuing investigation.

The only thing that prevented an explosion was a mistake in the attackers’ computer code, the investigators said.

The assault was the most alarming in a string of hacking attacks on petrochemical plants in Saudi Arabia. In January 2017, computers went dark at the National Industrialization Company, Tasnee for short, which is one of the few privately owned Saudi petrochemical companies. Computers also crashed 15 miles away at Sadara Chemical Company, a joint venture between the oil and chemical giants Saudi Aramco and Dow Chemical.

Within minutes of the attack at Tasnee, the hard drives inside the company’s computers were destroyed and their data wiped clean, replaced with an image of Alan Kurdithe small Syrian child who drowned off the coast of Turkey during his family’s attempt to flee that country’s civil war.

The intent of the January attacks, Tasnee officials and researchers at the security company Symantec believe, was to inflict lasting damage on the petrochemical companies and send a political message. Recovery took months.

Energy experts said the August attack could have been an attempt to complicate Crown Prince Mohammed bin Salman’s plans to encourage foreign and domestic private investment to diversify the Saudi economy and produce jobs for the country’s growing youth population.

“Not only is it an attack on the private sector, which is being touted to help promote growth in the Saudi economy, but it is also focused on the petrochemical sector, which is a core part of the Saudi economy,” said Amy Myers Jaffe, an expert on Middle East energy at the Council on Foreign Relations.

Saudi Arabia has cut oil exports in recent years to support global oil prices, a strategy central to its efforts to make a potential public offering of shares of government-controlled Saudi Aramco more attractive to international investors. The kingdom has tried to compensate for its lost revenue by expanding its petrochemical and refining industry.

Some technical details of the attack in August have been previously reported, but this is the first time the earlier attacks on Tasnee and other Saudi petrochemical companies have been reported.

Security analysts at Mandiant, a division of the security firm FireEye, are still investigating what happened in August, with the help of several companies in the United States that investigate cyberattacks on industrial control systems.

A team at Schneider Electric, which made the industrial systems that were targeted, called Triconex safety controllers, is also looking into the attack, the people who spoke to The Times said. So are the National Security Agency, the F.B.I., the Department of Homeland Security and the Pentagon’s Defense Advanced Research Projects Agency, which has been supporting research into forensic tools designed to assist hacking investigations.

All of the investigators believe the attack was most likely intended to cause an explosion that would have killed people. In the last few years, explosions at petrochemical plants in China and Mexico — though not triggered by hackers — have killed several employees, injured hundreds and forced evacuations of surrounding communities.

What worries investigators and intelligence analysts the most is that the attackers compromised Schneider’s Triconex controllers, which keep equipment operating safely by performing tasks like regulating voltage, pressure and temperatures. Those controllers are used in about 18,000 plants around the world, including nuclear and water treatment facilities, oil and gas refineries, and chemical plants.

“If attackers developed a technique against Schneider equipment in Saudi Arabia, they could very well deploy the same technique here in the United States,” said James A. Lewis, a cybersecurity expert at the Center for Strategic and International Studies, a Washington think tank.

The Triconex system was believed to be a “lock and key operation.” In other words, the safety controllers could be tweaked or dismantled only with physical contact.

So how did the hackers get in?

Investigators found an odd digital file in a computer at an engineering workstation that looked like a legitimate part of the Schneider controllers but was designed to sabotage the system. Investigators will not say how it got there, but they do not believe it was an inside job. This was the first time these systems were sabotaged remotely.

The only thing that prevented significant damage was a bug in the attackers’ computer code that inadvertently shut down the plant’s production systems.

Investigators believe that the hackers have probably fixed their mistake by now, and that it is only a matter of time before they deploy the same technique against another industrial control system. A different group could also use those tools for its own attack.

The August attack was also a significant step up from earlier attacks in Saudi Arabia. Starting on Nov. 17, 2016, computer screens at a number of Saudi government computers went dark and their hard drives were erased, according to researchers at Symantec, which investigated the attacks.

Two weeks later, the same attackers hit other Saudi targets with the same computer virus. On Jan. 23, 2017, they struck again, at Tasnee and other petrochemical firms, deploying a computer virus known as Shamoon, after a word embedded in its code.

The Shamoon virus first surfaced five years earlier at Saudi Aramco, wiping out tens of thousands of computers and replacing the data with a partial image of a burning American flag. Leon E. Panetta, the United States defense secretary at the time, said the attack could be a harbinger.

“An aggressor nation or extremist group could use these kinds of cyber tools to gain control of critical switches,” he said.

Government officials and cybersecurity experts in Saudi Arabia and the United States attributed the 2012 Shamoon attack to Iranian hackers.

“Another attacker could have adopted that code” for the January 2017 attacks, said Vikram Thakur, a senior researcher at Symantec, “but our analysis showed the likelihood it was the same perpetrator was pretty high.”

The attack in August was not a Shamoon attack. It was much more dangerous.

Investigators believe a nation-state was responsible because there was no obvious profit motive, even though the attack would have required significant financial resources. And the computer code had not been seen in any earlier assaults. Every hacking tool had been custom built.

The attackers not only had to figure out how to get into that system, they had to understand its design well enough to know the layout of the facility — what pipes went where and which valves to turn in order to trigger an explosion.

Investigators believe someone would have had to buy the same version of the Triconex safety system to figure out how it worked. The components, investigators said, could be purchased for $40,000 on eBay.

The attack has also shown the challenge of attributing with unquestionable evidence an attack to one country.

Security experts said Iran, China, Russia the United States and Israel had the technical sophistication to launch such attacks. But most of those countries had no motivation to do so. China and Russia are increasingly making energy deals with Saudi Arabia, and Israel and the United States have moved to cooperate with the kingdom against Iran.

That leaves Iran, which experts said had a growing military hacking program, although the Iranian government has denied any involvement in such attacks.

Tensions between Iran and Saudi Arabia have steadily escalated in recent years, and the conflict has drifted online.

United States officials and security analysts blamed Iranian hackers for a spate of attacks on American banks in 2012 and more recent espionage attacks on the airline industry. Iranian hackers were blamed for the 2012 Aramco attack and are also the leading suspects in the more recent Shamoon attacks.

The August attack was far more sophisticated than any previous attack originating from Iran, Mr. Thakur of Symantec said, but there is a chance Iran could have improved its hacking abilities or worked with another country, like Russia or North Korea.

Tasnee said in an email that it had hired experts from Symantec and IBM to study the attack against it. The company said it had also “completely overhauled our security standards” and started using new tools to prevent attacks.

“Being a global business,” the company said, “we believe that cybersecurity is a concern wherever you are in the world.”

Follow Nicole Perlroth and Clifford Krauss on Twitter: @nicoleperlroth and @ckrausss.

A version of this article appears in print on March 16, 2018, on Page B1 of the New York edition with the headline: How Hackers Lit a Fuse. Order ReprintsToday’s Paper|Subscribe

Steve Fankuchen

 March 16, 2018

CRISPR Cas9, une technique révolutionnaire pour modifier le génome

Une nouvelle méthode de génie génétique permet de modifier le chromosome en ôtant une zone portant un caractère à éliminer ou, au contraire, y ajouter des gènes d’intérêt

CRISPR Cas9, une technique révolutionnaire pour modifier le génome dans S DiscussionS FKCPN5PT1_moy
- © Stanislav Dusko Ehrlich-Inra

Prononcez approximativement « Crisper Case 9 » ce nouvel acronyme qui s’écrit officiellement CRISPR-Cas9 (1). En tout cas, retenez ce nom qui, régulièrement, donne lieu à des articles dans la presse professionnelle mais aussi grand public et continuera à alimenter les magazines.

Au cours du séminaire Bioporc qui s’est déroulé à Rennes en décembre dernier, Alain Ducos, professeur à l’École vétérinaire de Toulouse, a présenté cette méthode de génie génétique « dont toute la communauté scientifique parle ». Elle permettrait de modifier, supprimer ou remplacer un gène des cellules animales ou végétales de façon précise, rapide et relativement peu coûteuse. Avec d’incroyables perspectives chez l’homme et chez l’animal mais avec aussi des questions éthiques, économiques et réglementaires en suspens.

Les applications potentielles de ce nouvel outil de génie génétique sont considérables : des applications biomédicales en particulier dans le traitement des maladies génétiques orphelines, des animaux modifiés tels que des moustiques qui ne pourraient plus transmettre le paludisme, et, bien entendu, des applications dans le domaine de la sélection des animaux d’élevage. Alain Ducos, professeur à l’ENVT n’a pas dissimulé son enthousiasme – mais aussi ses réserves – sur cette technique qu’il a qualifié d’emblée de révolutionnaire.

Une « paire de ciseaux génétique »

Pour schématiser, elle consiste à utiliser une enzyme bactérienne et un « dispositif de guidage », le Cas9. Celui-ci détecte la zone d’ADN où « intervenir », et l’enzyme va « couper » les deux brins qui constituent l’ADN à l’endroit précis recherché, par exemple une séquence à l’origine de maladies orphelines, d’une sensibilité aux maladies, etc. La technique permet aussi de « réparer » une anomalie en incluant une séquence d’ARN manquante (voir schéma). Voilà qui explique que la méthode ait pu être baptisée le « couteau suisse de la génétique » dans les magazines grand public.

En soi, la méthode n’est pas totalement nouvelle puisque dès les années 2000 les chercheurs étaient parvenus à produire des cellules transgéniques par micro-injection. Ce qui change c’est l’incroyable progrès qu’a apporté ce Cas9 dans la technique : plus rapide, bien plus précise et moins coûteuse que ses « ancêtres », elle offre des perspectives d’applications innombrables. « Tout étudiant en biologie de niveau Master qui dispose des équipements standards d’un laboratoire est à même de manipuler le système Crispr-Cas9 pour modifier un gène », annonce Emmanuelle Charpentier, qui n’est autre que la chercheuse française qui, avec l’américaine Jennifer Doudna, a découvert la technique en 2012. La découverte ne se limite plus aux recherches fondamentales mais va trouver très vite des applications pratiques. Elle va permettre de transférer un allèle d’intérêt existant dans une population (une race, une lignée), vers une autre population. Des chercheurs (2) sont ainsi parvenus à obtenir des porcs résistants à la souche américaine du virus du SDRP en inactivant un gène précis. Avec évidemment des perspectives commerciales qui n’auraient pas échappé à un des leaders mondiaux de la génétique porcine, à savoir PIC selon certains observateurs… Cette firme a-t-elle déjà introduit la technique dans ses outils de sélection ? Impossible de le vérifier.

Alain Ducos, professeur à l’école vétérinaire de Toulouse. « La technique CRISPR CAS9 pose de nombreuses questions d’ordre éthique, réglementaire, économique et stratégique. »
Alain Ducos, professeur à l’école vétérinaire de Toulouse. « La technique CRISPR CAS9 pose de nombreuses questions d’ordre éthique, réglementaire, économique et stratégique. » – © C. Gérard

OGM ou non OGM ?

Et c’est là une des questions majeures que pose cette manipulation génétique : les animaux qui en sont issus sont-ils considérés comme des OGM ? La question fait largement débat dans le monde entier. Alain Ducos rappelle la définition officielle (directive UE 2001/18) : « Un OGM est un organisme, à l’exception des êtres humains, dont le matériel génétique a été modifié d’une manière qui ne s’effectue pas naturellement par multiplication et/ou par recombinaison naturelle ». Les défenseurs de Criprs-Cas9 argumentent sur le fait que, précisément la technique permet de reproduire des modifications apparues naturellement… Par ailleurs, les modifications du génome ainsi obtenues sont quasiment indétectables. Alors comment réglementer ? Bref, autant de questions « d’ordre éthique, réglementaire, économique et stratégique », comme le souligne le chercheur qui, en tout état de cause, confirme que des sommes considérables sont aujourd’hui investies dans la recherche sur ce sujet, dans le monde entier. Enfin, les deux chercheuses ayant découvert cette technique, actuellement en procédure judiciaire aux États-Unis pour faire valoir leurs droits (et un brevet ?) sont pressenties pour recevoir un futur prix Nobel.


FKCPN5PT3_web dans SOCIETE (faits de)
- © Infographie Réussir

(1) Clustered Regularly Interspersed Short Palindronic Repeats
(2) Whitworth et al

Des applications multiples envisagées en élevage

Les domaines d’application du CRISPR Cas9 vont de la recherche fondamentale — applications biomédicales, thérapies humaines, maladies génétiques… —
aux applications en agriculture.
Dans le domaine de l’élevage, des recherches ont déjà été publiées sur les sujets suivants :

- des vaches, brebis ou chèvres produisant dans leurs glandes mammaires des protéines aux propriétés antimicrobiennes;
- des poulets produisant un ARN jouant le rôle de leurre pour le virus de l’influenza aviaire ;
- des porcs devenus résistants à certaines souches de SDRP;
- des bovins sans cornes;
- un système permettant d’éliminer très précocement les poussins mâles au cours de l’incubation pour les poussins destinés à la ponte ;
- des ruminants ne produisant plus de protéines allergisantes dans le lait ;
- des poules ne produisant plus de protéines allergisantes dans les œufs.
Et bien entendu, la liste n’est pas exhaustive et les recherches se poursuivent partout dans le monde, donnant lieu à de multiples publications scientifiques.

publié par:


CAPTEURS De précieuses aides connectées pour l’agriculteur

Dans tous les gestes de l’agriculture, les capteurs permettent d’acquérir des informations et de faire des objets connectés de véritables outils d’aide à la décision pour améliorer ses pratiques, au service de l’environnement et de l’économie.

L’agriculture numérique. Extrait d’une fresque présente sur l’espace L’agriculture numérique. Extrait d’une fresque présente sur l’espace « agriculture numérique de demain » sur le stand de Terre-net Média au Sima 2017. (©Terre-net Média)En agriculture aussi, les objets connectés sont en pleine émergence. Ces outils bourrés d’électronique et capables de communiquer seront certainement plus de 50 millions en France, après 2020.

S’inspirant des avancées dans le domaine industriel, les instituts techniques et autres start-up se sont intéressés aux applications agricoles. De jour en jour, la gamme des objets connectés s’élargit donc, quitte le confidentiel pour s’installer dans le quotidien. Leur démocratisation permet aussi d’en faire baisser les prix. « Demain, nous aurons de plus en plus d’objets qui enregistreront des données et après-demain, au fur et à mesure des renouvellements, tout le matériel sera connecté », prévoit Alexandre Diaz, responsable innovation et transition numérique chez Isagri.

Un capteur enregistre des données et les transmet sous forme numérique à un ordinateur ou un smartphone.

Ce qui « connecte » un objet est la présence d’un capteur, capable d’enregistrer des données et de les transmettre sous forme numérique à un ordinateur ou un smartphone. Un capteur se compose d’une sonde qui transforme une grandeur physique (température, hydrométrie mais aussi mouvement) en impulsion électrique, d’une source d’énergie (batterie ou panneaux solaires pour travailler sans réseau électrique) et d’un module de communication sans fil. Plusieurs capteurs, parfois jusqu’à une cinquantaine sur une station météo élaborée, peuvent être combinés dans un seul appareil.

Pour transférer leurs données, les capteurs utilisent d’autres moyens de communication que nos portables « pour ne pas être dépendants de la couverture du territoire. L’utilisation des capteurs est rendu possible par le développement des communications sans fil, explique François Pinet, chercheur à l’Irstea. Si les capteurs sont assez près de l’exploitation, les transferts d’informations peuvent, par exemple, se faire  par de la communication à base de technologies ZigBee, qui créent un mini-réseau privé ». Quand la distance augmente, de nouvelles technologies ont vu le jour, comme Sigfox, un opérateur télécom spécialisé sur les applications à très bas débit, ou LoRa, une technologie basée sur les ondes radio longue portée.

« Cela permet de transmettre des données assez légères, sur une longue portée sans avoir besoin de trop d’énergie, complète Gil de Sousa, chercheur au centre Irstea de Clermont-Ferrand. Avec ces solutions, on peut travailler partout avec des objets connectés. Elles sont adaptées aux besoins agricoles car elles n’ont pas besoin de beaucoup d’énergie ».

Ces réseaux sont payants et sécurisés, ce qui permet d’être rassurés sur le transfert des données. Mais ce coût devra être intégré, comme celui de la maintenance, dans le raisonnement économique de son investissement. Mais l’échange de données « lourdes », comme par exemple les vidéos d’une caméra de surveillance, demande l’accès à internet, avec les inégalités digitales toujours fortes en zones rurales.

Gadget ou outil ?

Pour que les objets connectés dépassent la sphère des « early adopters », les friands de nouvelles technologies, il faut qu’ils apportent un réel service et que le retour sur investissement soit réel. Que permettent les capteurs ? Les plus simples sont les capteurs d’alerte : quand quelque chose ne fonctionne pas, ils vous envoient un message sur votre smartphone. On pense aux clôtures électriques qui préviennent en cas de dysfonctionnement ou des sondes thermiques qui avertissent d’un échauffement dans un stock de paille. Comme ils communiquent à distance, les capteurs permettent de s’affranchir de la distance, pour suivre les conditions hydriques de ses parcelles éloignées.

« Les détecteurs de vêlage sont certainement les capteurs les plus répandus en productions animales, avance Alexandre Diaz. Ils ont séduit les éleveurs car ils apportent un véritable retour sur investissement en termes de confort de travail dans des troupeaux de plus en plus grands où tous les animaux ne sont pas sur le même site, avec des gains chiffrables sur les performances de reproduction ».

Les capteurs allègent aussi le côté répétitif de certaines tâches et remplacent les enregistrements papier par des enregistrements informatiques transmis directement. Ils permettent d’anticiper (capteur de remplissage d’un silo) et d’organiser ses chantiers (stations météo et suivi des risques de maladies et de ravageurs).

Les capteurs sont de véritables outils d’aide au pilotage stratégique

Mais surtout, les capteurs répondent aux besoins d’une agriculture de précision, en permettant de suivre régulièrement et en détail ses cultures. Plus les outils connectés interagiront entre eux et plus on ira sur du cas par cas. Pourquoi ne pas imaginer que les capteurs de suivi d’humidité communiqueront avec un pivot qui pilotera au plus juste les apports d’eau selon les besoins réels des différentes zones de la parcelle ?

Les capteurs sont de véritables outils d’aide au pilotage stratégique. « Bien valorisées, les données d’une station météo sont une aide précieuse pour organiser ses chantiers, traiter dans de bonnes conditions, estime Alexandre Diaz. Le retour sur investissement est direct, un traitement fait au bon moment, ce sont des doses réduites et un rendement préservé ». Pour y arriver, il faut que ce que transmettent les capteurs soit analysé pour être transcrit en préconisations et en outils d’aide à la décision. Une donnée n’a de l’intérêt que si elle est valorisée. C’est l’agglomération de toutes les données collectées par différents agriculteurs qui alimentent de nouveaux modèles, pour anticiper les risques, affiner ses pratiques selon les conditions météo.

« Les agriculteurs ont tout intérêt à partager leurs données, conseille François Pinet. Après se pose la question de leurs propriétés, de leur valorisation ». Fait son chemin l’idée des plateformes collaboratives, où chacun partage ses chiffres et tire un bénéfice sous forme de conseils de la valorisation de l’ensemble des données. En même temps que la prise en main de ces nouveaux outils, les agriculteurs doivent réfléchir à l’enjeu de la collecte des données, de sa sécurité, de la propriété de ces données, de la valorisation de leur interprétation.

ven. 17 mars 2017 à 06:01 •  Cécile Julien • TERRE-NET MÉDIA

publié à:[Le_mel_Agricole]-20160414&idemv=87356866


Effectivement, des pommes de terre pourraient pousser sur Mars


Une expérience simulant les conditions sur Mars a démontré que les fameux tubercules peuvent prospérer même dans les rudes conditions semblables à celles trouvées sur la planète rouge.

Deux ans après la fructueuse tentative de Matt Damon dans « The Martian », les scientifiques ont découvert que la stratégie de l’astronaute fictif (Mark Watney) pour survivre sur la planète rouge pourrait réellement fonctionner.

Au début de l’année dernière, une pomme de terre a été plantée dans le sol récupéré du désert de Pampas de La Joya, au Pérou, qui présente “les sols les plus semblables à Mars trouvés sur Terre”, selon le scientifique Chris McKay de la NASA. L’expérience, parrainée par le Centre international de la pomme de terre (CIP), a eu lieu dans un CubeSat construit par l’Université d’ingénierie et de technologie du Pérou (UTEC) avec des conseils du Centre de recherche Ames de la NASA.

Selon Julio Valdivia-Silva de l’UTEC :

Si les cultures peuvent tolérer les conditions extrêmes auxquelles nous les exposons dans notre CubeSat, elles ont de bonnes chances de croitre sur Mars.

L’expérimentation incluant un CubeSat simulant l’environnement martien pour la production de pommes de terre au Centre international de la pomme de terre au Pérou. (CIP)
CubeSat patate CubeSat

Un live vidéo en direct du CubeSat, au Centre international de la pomme de terre à Lima, au Pérou, montre la pomme de terre en fleurs, donnant l’espoir à la fois aux futurs astronautes et aux Terriens souffrant de malnutrition.

Selon le Dr McKay :

Cette recherche pourrait avoir un avantage technologique et biologique direct sur Terre.

En 2015, environ 795 millions de personnes souffraient de malnutrition dans le monde. Bien que cela représente une baisse par rapport aux années précédentes, l’Organisation des Nations Unies pour l’alimentation et l’agriculture (FAO) indique qu’elle considère le changement climatique comme une menace majeure pour les progrès futurs.

La pommes de terre est une candidate idéale pour nourrir un monde plus chaud, plus populeux. Polyvalente et nutritive, la pomme de terre est déjà la plus populaire des cultures vivrières non céréalières au monde et se classent dans le “niveau supérieur” des cultures que les chercheurs espèrent assurer la sécurité alimentaire à l’avenir.

Le Centre international de la pomme de terre documente plus de 4 000 variétés de pommes de terre comestibles, capables de croitre partout et, espérons-le, dans une installation climatisée sur Mars.

Lorsque l’expérience “Potatoes on Mars” a commencé, les chercheurs ne savaient pas à quoi s’attendre et si le sol martien ne pouvait aider à la culture de la pomme de terre, il y avait encore la possibilité de la cultiver sans sol, en hydroponie et en aéroponies.

La NASA affirme que les plantes cultivées dans des vaisseaux spatiaux pourraient améliorer le goût et la nutrition du régime alimentaire des astronautes. Mais avec une pomme de terre capable de croitre dans le sol martien simulé, les résultats de cette expérience, et les tests de suivi, sont également susceptibles d’aider les agriculteurs sur Terre.

Selon Walter Amoros du CIP :

les résultats indiquent que nos efforts pour élever des variétés à fort potentiel afin de renforcer de la sécurité alimentaire, dans les zones touchées ou qui seront affecté par le changement climatique, fonctionnement.

Un timelapse du développement du plant de pomme de Terre dans son environnement simulé :

L’annonce sur le site du CIP : Indicators show potatoes can grow on Mars.


Biotechnologie : modifier le génome est maintenant rapide, précis et bon marché grâce à « CRISPR ». Pourquoi est-ce une révolution ?

  • CRISPR est une biotechnologie qui permet de supprimer et/ou ajouter et/ou désactiver un gène dans l’ADN de n’importe quelle cellule de n’importe quel organisme, que ce soit une plante, un vers de terre, un lapin ou un humain.
  • Cette technologie reproduit et perfectionne la capacité du système immunitaire de certaines bactéries à reconnaître et neutraliser certains gènes chez des virus les attaquant.
  • Pouvoir supprimer et/ou ajouter un gène dans l’ADN d’un organisme n’est pas nouveau en soi.
  • La nature le fait déjà par le biais des mutations naturelles, c’est ce qui nous a permis de passer du petit rongeur à l’homme, entre autres merveilles.
  • L’homme le fait aussi depuis des lustres indirectement via la reproduction sélective des plantes et animaux, et plus récemment et directement, en laboratoire avec les OGM.
  • Ce qui est nouveau : CRISPR est bien plus rapide, précis, fiable et économique que toutes les méthodes utilisées jusque là. C’est ce qui en fait une véritable révolution ! 
  • En gros, CRISPR donne la possibilité d’éditer très facilement le génome d’un individu au sein d’une espèce.
  • Pensez « ciseaux génétiques », « couper/copier coller génétique »
  • Ce qui prenait un an avec les anciennes méthodes prend maintenant quelques semaines.
  • 30 millions de personnes dans le monde souffrent d’une des 6000 maladies génétiques identifiées à ce jour. CRISPR offre, entre autres, l’espoir de les guérir.
  • Un enjeu pour la recherche est de savoir si l’on peut modifier les cellules reproductives, au-delà des cellules non-reproductives.
  • Modifier des gènes au sein de cellules non-reproductives permettrait de guérir l’individu sans que ces mutations puissent être transmises aux enfants. À la différence des modifications des gènes des cellules reproductives. C’est le dernier cas qui est le plus sensible au niveau éthique.
  • Les 5 applications principales devant connaître le plus de progrès en 2017
    • Comprendre à quoi sert chaque gène, et quels sont les gènes derrière un comportement ou une aptitude : on est très loin de savoir quels gènes codent pour quelles aptitudes ou caractéristiques, pouvoir inhiber un gène facilement est le moyen rêvé d’expérimenter afin de dévoiler les mystères de l’ADN
    • Mettre au point des OGMs encore plus adaptés à nos besoins et contraintes, et plus écologiques : des plantes nécessitant moins d’eau, moins de pesticides, moins d’engrais, plus résistantes à la sécheresse, aux insectes et au sel, croissant plus vite et produisant de plus gros grains.
    • Identifier des traitements possibles pour Alzheimer, contre le cancer, le SIDA, l’herpès et l’hépatite
    • Réduire notre dépendance aux hydrocarbures : CRISPR permettrait de modifier des levures pour les conduire à transformer des sucres en hydrocarbures, et notamment les molécules dont nous avons besoin pour produire du plastique, du nylon ou tout autre matériau aujourd’hui dérivé des produits pétrochimiques
    • Pour produire vaccins et médicaments : et ce, en insérant des gènes particuliers dans le génome de plantes pour leur faire produire les cellules et composés organiques voulus
    • Source en anglais –


  • Les 4 principales raisons pour lesquelles on voudrait pouvoir éditer le génome de cellules humaines, de la moins à la plus controversée :
    • Faire de la recherche fondamentale sur ces cellules humaines en laboratoire : pour comprendre quel gène sert à quoi par exemple, et sans jamais chercher à produire un embryon viable ou à modifier directement un être humain.
    • Essais cliniques en vue de modifier les cellules non-reproductives d’un être humain : ce sont les fameuses thérapies géniques devant permettre de guérir cancer, sida, ainsi que les maladies génétiques. Ces modifications de l’ADN n’encourent pas le risque d’être transmis aux enfants et suscitent donc moins le débat.
    • Modifier le bagage génétique d’une ovule, d’un spermatozoïde voire d’un embryon pour couper court à une maladie génétique :
      • il ne s’agit plus là d’éditer un humain, mais d’éditer l’humanité car on touche aux cellules dites reproductives
      • les changements pourront être transmis de génération en génération
      • l’influente « National Academy of Sciences » américaine a rendu un rapport en février dernier recommandant d’autoriser ces pratiques hautement controversées dans le seul objectif de traiter des maladies génétiques graves pour lesquelles aucune alternative n’existe
    • Modifier le génome d’un individu dans le but non pas de le soigner mais de l’améliorer, le rendre plus fort, plus intelligent : c’est aujourd’hui ce qu’il y a de plus sensible, et est interdit partout dans le monde a priori, pour l’instant…

résumé français écrit par

Article originel:

Scientists can now genetically engineer humans. A big new report asks whether we should.

Updated by Brad  Feb 15, 2017, 1:53pm EST
Biotechnologie : modifier le génome est maintenant rapide, précis et bon marché grâce à

Gotta love that designer baby stock art.


Biotechnology has advanced so rapidly over the past few years that scientists can now edit the genomes of plants and animals with ever-increasing precision. Using new techniques like CRISPR/Cas9, researchers have already shown they can alter genes to create hornless cattle or mushrooms that don’t brown easily.

But the really big question — the stuff of sci-fi — is whether we’ll use genome-editing tools on people to wipe out heritable diseases or to enhance human capabilities. It’s no longer a question of whether we’ll be able to create “designer babies”: The technology is improving at a stunning pace. Instead, it’s a question of whether we should. It’s an ethics question, a policy question.

On Tuesday, the influential National Academy of Sciences released a 261-page report on this issue, titled “Human Genome Editing: Science, Ethics, and Governance.” It’s one of the most thorough looks yet at what’s likely to be possible with new genome-editing techniques — and why scientists should tread carefully.

The report’s recommendations are eyebrow-raising: In very, very limited cases, editing of viable human embryos should be allowed to go forward in the United States — a conclusion that’s certain to prove controversial. In particular, the report argues, clinical trials to edit human sperm, eggs, and embryos should be permissible in cases where there’s a high chance of preventing babies from being born with serious genetic diseases and no “reasonable alternatives” exist.

By contrast, the panel says editing embryos for human enhancement — say, making people stronger or more intelligent — should absolutely not proceed in the United States until there’s much broader society-wide discussion of the thorny ethics involved, like the risks of exacerbating the gap between rich and poor. The report is an in-depth discussion of the issues at play here, so let’s dig in.

The four big reasons we might want to edit the human genome

The report starts by taking stock of all the powerful biotech tools available today, from zinc finger nucleases to TALEN to CRISPR/Cas9. While the technical details vary, these techniques “can be used to make precise changes in the genome at a high frequency and with considerable accuracy.” Here’s a diagram showing how CRISPR/Cas9 works:

A basic guide to how CRISPR works.

 (Javier Zarracina)

There are four big reasons why scientists might want to tinker with the genetic material of human beings in particular — ranging from least controversial to most controversial:

1) Basic research on human cells in a lab. This one’s straightforward. A scientist takes cultures of human cells and uses, say, TALEN or CRISPR to tinker with the genetic code to figure out how our molecular processes actually work — or better understand what our genes do. Scientists might edit “somatic” cells (nonreproductive cell types like skin or liver cells) or “germline” cells (eggs or sperm). But these experiments would never produce viable embryos or modify living human beings.

This is basic, essential research that’s not much different from what’s been going on for decades, and the report argues that existing guidelines should be sufficient to govern these practices. Nothing too contentious here.

2) Clinical trials to edit somatic cells in living humans. Increasingly, however, scientists are also interested in using genome-editing techniques to treat diseases in humans. Last June, the National Institutes of Health approved the first-ever clinical trial to use CRISPR as a cancer treatment. Scientists at the University of Pennsylvania will take immune cells out of 18 cancer patients, edit the cells to make them more effective at targeting cancer, and then infuse the cells back into the patient to see what happens. (This trial is mainly intended to probe the safety of this technique.)

This sort of “gene therapy” will become more common as editing techniques improve. The NAS report cites a long list of potential applications down the road. An excerpt:

 (National Academies of Sciences)

The panel argues that there aren’t any hugely troubling ethical issues here, since this involves altering somatic (i.e., nonreproductive) cells, and the altered traits can’t be passed on to offspring. The panel does, however, urge caution. Genome-editing techniques still aren’t perfect, and they can sometimes misfire, leading to random mutations or other “off-target” effects in the edited cells. What’s more, no one’s yet been able to develop clear safety standards around what misfires are acceptable.

So, the report says, regulators at NIH will need to scrutinize proposals for gene therapy trials on a case-by-case basis. In general, it’s safest to take a cell out of a patient and edit it (known as “ex vivo” treatment), because researchers can more easily check for off-target effects. By contrast, there are still plenty of technical challenges involved in editing cells directly inside a human body (“in vivo” treatment).

3) Editing sperm, eggs, and embryos to stop inheritable diseases. Okay, now we’re getting to the controversial stuff. It’s one thing to edit an adult’s immune cells. If anything goes awry, the effects won’t be passed on. It’s another matter entirely to edit sperm, eggs, or embryos (known as the “germline”) and create genetic changes that can be passed down from generation to generation. Now we’re no longer talking about editing a single human. We’re talking about editing humanity.

For now, the FDA and NIH are barred from approving research on editing human embryos, because of the potentially fraught social and ethical concerns involved. But other countries, like China and the United Kingdom, are moving forward with embryo editing, and interest is certain to grow. There are thousands of inheritable diseases caused by mutations to a single gene (like Huntington’s). For many families, genome-editing may be the only way to prevent kids from being born with certain conditions.

So the panel tries to strike a balance here. It argues that the US government should allow clinical trials on editing sperm, eggs, or embryos — but only under very, very limited conditions. It should be done only to try to prevent “serious diseases” where there’s a convincing link between the gene in question and the disease — and only when there are no “reasonable alternatives.” The panel also urges rigorous oversight and a “continued reassessment of both health and societal benefits and risks.”

The panel concedes that this recommendation is likely to prove contentious. Some people will find the idea of editing viable sperm, eggs, or embryos morally wrong. Others will note that concepts like “reasonable alternatives” and “serious disease” are left frustratingly vague. And still other researchers may find these guidelines so strict as to bar useful research. (More on this below.)

It’s also not clear how widespread embryo editing would become even if US regulators did approve it. As the panel notes, there are still “major technical challenges to be addressed in developing this technology for safe and predictable use in humans.” As a result, the panel predicts that we aren’t likely to see much germline genome editing to prevent disease “in the foreseeable future.”

4) Editing the human genome for “enhancement.” Of course, if scientists could one day edit viable embryos to eliminate diseases, they could also conceivably edit embryos for enhancement. Stronger babies. Smarter babies. Babies born only with blue eyes. Gattacaterritory, basically.

The NAS report notes that this possibility raises all sorts of thorny issues. Would the use of genetic enhancement make inequality worse? Might it one day become so prevalent that enhancement becomes mandatory, like vaccines are today? Should parents have a right to improve their children through genetic modification? How far should regulations around genome editing go to respect religious and cultural discomfort? Are there risks we haven’t even thought of yet? (Almost certainly.)

The report basically concludes that we haven’t even begun to have a serious discussion around these issues, as a society. Nor do policymakers really understand yet what sorts of regulations and governance these techniques should require. As such, the panel recommends that “genome editing for purposes other than treatment or prevention of disease and disability should not proceed at this time.”

But that’s easier said than done. The report notes that the boundary between disease prevention and enhancement can often be hazy. Using genome editing to improve musculature for patients with muscular dystrophy might be okay. But what about improving musculature for people genetically disposed to be weaker than normal? Where do you draw the line? What about genetic editing to improve cholesterol levels? As such, the report notes, scientists and policymakers are going to have to think harder about what counts as “normal” and what is an “enhancement.”

This report won’t end controversy around human genome editing

Should we?


Suffice to say, this report doesn’t have all the answers for what’s okay and what’s not around human genome-editing — and it would be ridiculous to expect as much. This is a complex debate that will persist for decades.

Instead, the National Academy of Sciences panel tried to lay out some principles to guide further discussions. The development of any new regulations around genome-editing needs to be transparent and open, with ample public input. For instance: “Ongoing reassessment and public participation should precede and clinical trials of heritable germline editing.” And: “Incorporate public participation into the human genome editing policy process about ‘enhancement.’”

Even experts who are steeped in this topic have wildly different views of what’s appropriate. Back in 2015, a group of scientists wrote a letter in Nature calling for a moratorium on all embryo editing, period. The authors, led by Edward Lanphier of the DNA editing company Sangamo Therapeutics, argued that the potential benefits were still too hazy right now and the risks were too great:

In our view, genome editing in human embryos using current technologies could have unpredictable effects on future generations. This makes it dangerous and ethically unacceptable. Such research could be exploited for non-therapeutic modifications.

The critics also worried that a backlash against embryo modification could end up stifling promising research around gene therapy (No. 2 on our list in the last section):

We are concerned that a public outcry about such an ethical breach could hinder a promising area of therapeutic development, namely making genetic changes that cannot be inherited.

In an interview with Science on Tuesday, the lead author of that essay, Lanphier, expressed disappointment with the new NAS report’s cautious approval of embryo editing in some cases: “It changes the tone to an affirmative position in the absence of the broad public debate this report calls for.”

By contrast, George Church, a geneticist at Harvard and one of the pioneers of CRISPR, has long argued that while the benefits of editing embryos seem small right now, they are compelling enough to expand research. Here’s what he told Stat in 2015:

We need only one compelling argument to initiate a new social norm — even when the market is small (as for orphan drugs). For germline modification, we have at least three compelling cases: 1) mitochondrial diseases; 2) families in which post-natal remedies are inadequate and both parents are fully afflicted (20 percent of the world’s marriages involve close relatives); and 3) scenarios in which treating (and possibly pre-screening) single germ cells is safer than treating millions of somatic cells, since each cell adds to the collective risk of developing cancer.

In that same piece, NIH director Francis Collins is much more worried about the potentially risky side effects of human germline editing; you should read their entire exchange.

This new report is hardly going to be the last word on this debate, but the NAS tends to be influential in guiding US government policy, and it’s nudged the discussion significantly in the direction of allowing designer babies — even in limited cases.

Further reading

  • simple guide to CRISPR, one of the biggest science stories of the decade
  • While designer babies get all the attention, there are tons of cool things CRISPR can do that have nothing to do with editing humans. Here’s a list of a few.

Les ruches du futur

Le MIT livre sa dernière expérience : celle d’une ruche synthétique. Objectif : faire prospérer les abeilles dans un univers contrôlé pour mieux comprendre notre écosystème et tenter de le préserver.

Les images, presque chirurgicales, ont de quoi effrayer, tant elles font écho à l’élevage industriel, aseptisé, que nous propose le futur. Pourtant, derrière ces images futuristes, se cache un projet noble. Synthetic Apiary explore la possibilité d’une ruche dans un environnement contrôlé afin que les abeilles puissent prospérer toute l’année : la lumière, l’humidité et la température ont été pensées afin de simuler une atmosphère de printemps perpétuel. L’espace vierge vise à accueillir des abeilles, nourries avec du pollen de synthèse et de l’eau sucrée : leur santé et leur bien-être est soumis régulièrement à des tests de contrôle. Un espace artificiel où cohabitent l’insecte et l’homme et qui ouvre de nombreuses possibilités quant à l’étude des comportements et capacités d’adaptation de l’animal dans un espace biologiquement augmenté.

Les ruches du futurLes ruches du futurLes ruches du futurLes ruches du futur

Comme indique une video diffusée par le MIT, de nombreuses naissances ont eu lieu dans cet environnement synthétique : pour les chercheurs cela indique qu’ils ont réussi à combiner la température, l’humidité, la lumière et la nutrition… A l’heure où les abeilles disparaissent, de par les produits chimiques agricoles, la maladie ou la perte d’habitat, penser à des environnements non standards est devenu un facteur important pour leur survie, et pour la nôtre. Car, si l’homme a beaucoup à apprendre des capacités d’adaptation de l’abeille, il ne doit jamais oublier que son destin dépend de celui de l’insecte de par son poids sur notre agriculture. Les abeilles ont un rôle essentiel en termes de préservation de la biodiversité. Ce sont des insectes pollinisateurs, c’est à dire qu’elles transportent le pollen (élément mâle) des fleurs qu’elles butinent sur le pistil d’autres fleurs (éléments femelle), ce qui permet la fécondation et la reproduction des espèces végétales. L’activité de pollinisation des abeilles est essentielle à l’agriculture : la majorité des cultures fruitières, légumières, oléagineuses et protéagineuses, de fruits à coques, d’épices, du café et du cacao bénéficient de l’activité pollinisatrice des insectes.

Apple pourrait vous reconnaître à votre rythme cardiaque


Apple s’intéresse de près aux battements de cœur de ses utilisateurs. La firme vient de déposer un brevet qui leur permettrait de déverrouiller leur smartphone en le prenant simplement dans les mains.

Nous sommes encore loin de l’implant ou la puce RFID (quoique…), toujours est-il que les grandes firmes ne se contentent plus de recueillir les données physiologiques de leurs utilisateurs en vue d’optimiser leurs performances (quantified-self). Ces données pourraient s’avérer très utiles pour sécuriser les différents device. Plus besoin de taper son code à huit chiffres, d’avoir recours à un système d’eye-tracking ou de laisser son empreinte digitale,… les simples battements cardiaques de l’utilisateur perçus activeraient les différents systèmes.

Apple vient de déposer un brevet en ce sens. La marque y détaille un processus qui permettrait de mesurer la teneur en oxygène dans le sang. Un système d’émetteurs lumineux et de capteurs qui permettrait de capturer les données physiologiques et de les comparer aux datas mémorisées et associées à une identité d’utilisateur. Selon Apple, chaque système vasculaire aurait des caractéristiques propres permettant de nous identifier. Ainsi plus de frontières homme/ machine, le device devient un extension du corps humain.

TAGS quantified selfEtats-UnisApple



Des nanoparticules dans nos assiettes



A notre insu, les nanoparticules ont envahi notre environnement quotidien. Présentes dans de multiples produits de consommation courante – crèmes solaires, textiles, articles de sport, carburants, pneus, appareils électroménagers, panneaux solaires, ciments, peintures, vernis, équipements médicaux… –, elles se sont aussi introduites, subrepticement, dans nos assiettes.

Cela, sans que le consommateur en soit averti par un étiquetage spécifique, pourtant requis par la réglementation européenne. Et, surtout, sans qu’il se doute des dangers potentiels de ces substances. C’est ce que révèle une enquête de l’association Agir pour l’environnement, rendue publique mercredi 15 juin.

L’association a fait analyser, par le très officiel Laboratoire national de métrologie et d’essais, rattaché au ministère de l’industrie, quatre produits des plus ordinaires : des biscuits chocolatés de la marque Lu, des chewing-gums Malabar, une conserve de blanquette de veau commercialisée par William-Saurin et un mélange d’épices pour guacamole vendu sous la marque Carrefour.

Résultat des tests : tous contiennent des nanoparticules, de dioxyde de titane (TiO2) pour les trois premiers échantillons, et de dioxyde de silicium (SiO2) pour le quatrième. Des adjuvants utilisés par les industriels pour blanchir les aliments ou modifier la teinte de leurs colorants, dans le cas du premier ingrédient, et pour fixer l’humidité et empêcherl’agglomération des poudres, dans le cas du second.

Aucun étiquetage pour avertir le consommateur

Cette « cuisine nanoparticulaire » n’est pas une pratique neuve. On savait déjà que l’industrie agroalimentaire agrémente certaines de ses recettes d’une pincée de nano-éléments pour en améliorer l’aspect, la saveur, la texture ou la conservation. Mais, dénonce Agir pour l’environnement, l’ajout de ces composants à notre menu pose deux problèmes, l’un réglementaire, l’autre sanitaire.

D’après les investigations menées par l’association dans les rayons des supermarchés français, aucun produit n’est aujourd’hui étiqueté comme contenant des nanoparticules. A fortiori, aucun des quatre soumis à l’analyse.

Or, depuis décembre 2014, la réglementation européenne exige la mention « nano » sur les denrées alimentaires qui en recèlent. Une obligation dont la mise en œuvre a été retardée, mais qui aurait dû entrer en vigueur en décembre 2015, en vertu du règlement sur les « nouveaux aliments ».

Doivent ainsi être signalés à l’acheteur les produits dans lesquels sont incorporés des nanomatériaux « présentant une ou plusieurs dimensions de l’ordre de 100 nanomètres[milliardièmes de mètres] ou moins », mais aussi « des agrégats qui peuvent avoir une taille supérieure (…) mais qui conservent des propriétés typiques de la nano-échelle ».

Toxicité encore mal connue

Généralement retenu dans les règlements sur les nanomatériaux, le seuil de 100 nanomètres n’a en réalité pas de fondement scientifique absolu. En tout état de cause, il est franchi dans les quatre échantillons expertisés.

Tous contiennent des nanoparticules dont la taille est inférieure à 100 nanomètres, dans des proportions variables : 2,5 % du total des particules pour les chewing-gums, 12 % pour les biscuits chocolatés, 16 % pour la blanquette de veau et… 100 % pour le mélange d’épices. Tous auraient donc dû être étiquetés. Même si les nanoparticules ne se retrouvent dans ces denrées qu’à l’état de traces, de l’ordre du millième, voire du cent millième du produit fini.

Surtout, la toxicité des nanomatériaux, pour la santé et pour l’environnement, est encore très mal connue. Leurs dimensions lilliputiennes – un nanomètre est environ 50 000 fois plus fin qu’un cheveu – leur confèrent des propriétés physiques, chimiques ou biologiques hors du commun, qu’il s’agisse de résistance, d’élasticité, de conductivité ou de réactivité.

Mais, en raison de cette très petite taille, ils peuvent pénétrer dans les poumons ou dans le sang, par inhalation ou par ingestion, et franchir les barrières physiologiques protégeant l’organisme : barrière cutanée, alvéolo-capillaire (isolant les alvéoles pulmonaires des vaisseaux sanguins), hémato-encéphalique (protégeant le cerveau des agents pathogènes du sang), placentaire (séparant les circulations sanguines de la mère et du fœtus)…

« Dans dix ans, il sera trop tard »

Dans un avis rendu en mai 2014, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) a conclu que certains de ces matériaux microscopiques sont « toxiques pour l’homme ». Elle a donc appelé à « mettre en place un encadrement réglementaire européen renforcé » et à « peser l’utilité » de leur mise sur le marché.

« Nous ne disons pas que tous les nanomatériaux sont dangereux, précisait alors Dominique Gombert, directeur de l’évaluation des risques. Les incertitudes restent grandes et les recherches doivent être poursuivies. Mais il existe suffisamment de données scientifiques pour pointer les risques de certains d’entre eux. Dans dix ans, il sera trop tard pour seposer la question de leur encadrement. »

Lire aussi : Les nanomatériaux, ennemis invisibles et omniprésents

Toute la difficulté vient de ce que les nanomatériaux passent encore à travers les mailles du filet sanitaire européen. En effet, le système d’enregistrement, d’évaluation et d’autorisation Reach ne s’applique qu’aux productions chimiques de plus d’une tonne par an. Sa révision a été demandée par plusieurs pays, mais elle tarde à se concrétiser.

Appel à un « moratoire »

Pourtant, dès 2006, le Centre international de recherche sur le cancer (CIRC) a classé le dioxyde de titane (TiO2 ), même sous forme non nanométrique, comme « cancérigène possible » pour l’homme lorsqu’il est inhalé. Et voilà quelques jours, l’Anses a mis en consultation publique une proposition, soumise à l’Agence européenne des produits chimiques, de classer le TiO2 comme substance cancérogène par inhalation « présumée ».

Face à ces risques, même potentiels, Agir pour l’environnement appelle, en vertu du principe de précaution, à un « moratoire » sur l’incorporation de nanoparticules dans l’alimentation.

« Nous avons fait analyser quatre produits, mais bien d’autres sont probablement concernés. Il est inadmissible qu’on y trouve des nanoparticules non évaluées et non étiquetées,proteste Magali Ringoot, coordinatrice des campagnes de l’association. Les pouvoirs publics doivent protéger les consommateurs, particulièrement les publics vulnérables, comme les enfants et les femmes enceintes. »

Membre de l’Association de veille et d’information civique sur les enjeux des nanosciences et des nanotechnologies et rédactrice du site Internet VeilleNanos, Mathilde Detcheverry« espère que cette enquête, inédite en France, va inciter les associations de consommateurs à mener d’autres tests ». Et pousser les industriels comme les pouvoirs publics à instaurer « une transparence » sur le contenu de nos assiettes.

En savoir plus sur

LE MONDE | 15.06.2016 à 06h38 • Mis à jour le 15.06.2016 à 15h20 | Par Pierre Le Hir

  Pierre Le Hir

Journaliste au Monde




Voyage au cœur de la troisième révolution industrielle

Voyage coeur de la révolution industrielle

Le numérique bouleverse en profondeur notre société. Economie, santé, éducation, travail, vie privée, politique… Sandrine Cassini et Philippe Escande nous proposent une plongée dans le monde du capitalisme 3.0.

La machine numérique est en train de s’attaquer à toute la société et personne n’en sortira indemne. Le monde change à tous les niveaux, du plus concret – l’usage des taxis à Paris, la réservation d’un hôtel, la fabrication d’une voiture –, au plus impalpable – les comportements, la façon de penser, de vivre et d’organiser la société. C’est le principe des grandes révolutions industrielles. Elles s’insinuent dans tous les secteurs, et les ­conséquences sociétales marchent de pair avec les bienfaits matériels. Le propos de ce livre (*) est de raconter comment, tout à coup, le monde bascule.

Un vent de révolte

Un vent de panique gagne la France. Le tsunami Internet, qui a déjà détruit une bonne part de l’industrie de la musique et de la presse, s’infiltre désormais partout. Les transports et l’hôtellerie sont les prochains sur la liste. Même le puissant monopole de la SNCF commence à se poser des questions. En septembre 2013, le patron de la SNCF, Guillaume Pepy, a tenu devant ses troupes un étonnant discours à l’intonation guerrière. Le PDG assure que les nouveaux ennemis de la compagnie de chemin de fer et de ses deux cent soixante mille salariés s’appellent… Google et BlaBlaCar, le site de covoiturage qui transporte chaque mois plus de deux millions de voyageurs. Sa crainte : voir, comme dans le tourisme, émerger de nouveaux intermédiaires qui détournent sa clientèle et lui fassent perdre le contact avec ses voyageurs. Et, pourquoi pas, lui volent un jour son métier ! […] S’ils ont commencé par les industries de contenus facilement dématérialisables, comme les médias ou la musique, les nouveaux seigneurs du capitalisme s’attaquent désormais à la finance, l’énergie, la santé, l’éducation, l’immobilier, la construction et même l’agriculture ! Aucun pan de la société n’est à l’abri de la révolution numérique. C’est justement ce qui caractérise une révolution. […] Parue en septembre 2013, une étude de deux chercheurs de l’université d’Oxford a fait grand bruit. Elle prévoit que 47 % du total des emplois américains sont désormais menacés. Un sur deux !

Google, le nouveau General Electric

La boulimie d’expansion [de Google] n’est pas sans rappeler la glorieuse épopée d’Edison puis de General Electric au début du xxe siècle, explorant le moindre recoin de l’énergie électrique, des turbines de barrage aux ampoules, en passant par l’électroménager, les réseaux électriques et les machines-outils. C’est le propre des marchés non stabilisés et en forte croissance. Aujourd’hui, Google, entreprise de médias, est dans ce moment critique. Sa dernière grosse acquisition est un fabricant de thermostats, Nest, créé par l’ancien concepteur des iPod d’Apple. Une façon d’entrer dans la gestion de l’énergie dans les maisons.

Et après ? Pourquoi ne pas remonter la chaîne de valeur de l’énergie, jusqu’à la production d’électricité ? La société est après tout le premier utilisateur de panneaux solaires aux Etats-Unis. Comme Elon Musk entend le faire en combinant ses voitures électriques Tesla, ses batteries et ses panneaux solaires… Google va même encore plus loin de ses bases en achetant un laboratoire de biotechnologies spécialisé dans le vieillissement et en embauchant des cerveaux de la médecine pour trouver la recette d’une vie (presque) éternelle.

La voiture, le commerce, l’énergie, l’information, la bureautique, l’informatique, la santé, l’assurance… « Bientôt, les deux tiers des patrons du CAC 40 en viendront à se demander si leur premier concurrent demain ne sera pas Google », assure Philippe Lemoine, l’ancien patron de LaSer Cofinoga, président de la Fondation Internet nouvelle génération et auteur d’un rapport sur le sujet pour le gouvernement. Google est le General Electric des temps nouveaux. C’est pour cela qu’il fait peur à tout le monde.

Quand Bouygues a peur d’un thermostat

A Issy-les-Moulineaux, en région parisienne, un « écoquartier » 100 % high-tech et 100 % développement durable a été construit dans l’ancien fort de la ville. Mille six cents logements symbolisent le futur de l’habitat et de la ville intelligents. Tout y est ­connecté. Dans chaque appartement, le résident programme à partir d’un écran tactile, situé dans l’entrée, l’allumage des lumières, de son chauffage et ses volets. L’écran l’informe également en temps réel de sa consommation énergétique. Luxe ultime, le tout est pilotable depuis une application mobile. […] A l’origine du Fort d’Issy, se trouve Bouygues Immobilier, qui a conçu non seulement les bâtiments, mais l’ensemble des services attenants. « On vend de plus en plus de l’usage, plutôt que de la propriété », justifie Christian Grellier, vice-président innovation et développement durable du groupe. Sur un bâtiment, Bouygues Immobilier prend des engagements en matière de consommation d’énergie, ce qui nécessite de capter et d’analyser les données afin d’optimiser la gestion du chauffage ou de la climatisation. A Issy-les-Moulineaux, le groupe a travaillé avec Microsoft et Bouy­gues Telecom. Sur sa route, il croise donc Nest, le thermostat racheté par Google, qui s’insère dans l’habitat et connaît mieux que vous-même vos habitudes de vie et de ­consommation.

Pour le moment, Nest reste un thermostat inoffensif. Mais que se passera-t-il s’il fait son entrée dans tous les foyers, devenant aussi indispensable qu’un smartphone ? « Demain, ils pourront nous dire : je sais comment fonctionne votre bâtiment, et je viens vous vendre les données. Nous voulons garder la propriété de nos données », avance Christian Grellier.

La fin du salariat

Emploi temporaire, sous-traitance, multi-activité, activité autonome, le CDI à vie issu des Trente Glorieuses se fissure sous les effets conjugués de la croissance faible qui perdure depuis les années 1970, et des technologies de l’information, note un rapport du Conseil pour l’orientation sur l’emploi publié en 2014. En France, le succès du statut d’autoentrepreneur, lancé en 2009, et qui a vu plus d’un million de personnes créer leur microentreprise, est la meilleure illustration de ce phénomène. […]

Au départ, travailler en solo ou monter sa microentreprise n’est pas forcément un choix. C’est face à un marché du travail qui ne veut plus d’eux que les individus optent pour l’indépendance. La plate-forme de taxis Uber emploie beaucoup d’anciens chômeurs qui deviennent autoentrepreneurs. Les nouveaux organes de presse font uniquement appel à des pigistes. EBay, PriceMinister ou Amazon, qui permettent à n’importe qui de monter facilement sa petite activité d’e-commerce, sont également des repaires d’actifs en difficulté.

[…] Mais l’indépendance ressemble aussi à une jungle où règne la loi du plus fort. Si Hopwork se vante de « libérer le travail », la plate-forme permet surtout aux entreprises d’attribuer des notes aux indépendants dont elles sont le plus satisfaites, créant ainsi un cercle vertueux (ou vicieux) qui privilégie le plus demandé et rejette le moins performant. Dans ce monde du travail du futur, plus émietté, plus morcelé, deux catégories de travailleurs émergent. D’un côté, les grands gagnants du système, à la fois doués, disposant de compétences rares et valorisées, à l’aise dans ce monde d’ultracompétition. Défaits de l’emprise hiérarchique de l’entreprise, ils gagneront en liberté, se retrouveront sur le même pied d’égalité que le donneur d’ordre. Les autres accompliront des tâches à plus faible valeur ajoutée, peu payées, qu’il faudra multiplier pour gagner de quoi vivre.


En 2010, Mark Zuckerberg, le PDG de Facebook, affirmait que le concept de vie privée était dépassé et, d’ailleurs, que les individus s’en accommodaient très bien. Depuis, le jeune patron milliardaire a adouci ses propos. Et a montré qu’il tenait beaucoup à son intimité, en rachetant les villas avoisinant la sienne à Palo Alto. Vinton Cerf, l’un des pères fondateurs de l’Internet, devenu « chief evangelist » chez Google, avait jeté un pavé dans la mare en lançant que « la vie privée pourrait très bien être une anomalie » de l’histoire. […] De fait, le concept de vie privée est une invention récente. Il prend son essor après la Révolution française, dans la bourgeoisie du xixe siècle. Au Moyen Age, la maison n’est pas un espace privé mais public, un lieu où l’on travaille, où l’on dort. Les pièces ne sont pas séparées. Au départ, le désir de l’intime est mal vu. Il est synonyme d’égoïsme, d’intrigue, de complot, rappelle l’historienne Michelle Perrot.

[…] Le numérique brouille la frontière qui sépare vie privée et vie publique. « Les données personnelles servent à autre chose qu’à de la vie privée, et notamment à de la vie publique, à de l’exposition personnelle, à des modèles économiques », relate Isabelle Falque-Pierrotin, la présidente de la Commission nationale de l’informatique et des libertés (CNIL). Les individus eux-mêmes attendent beaucoup de leurs données personnelles. « Jusqu’à présent, ils demandaient qu’elles soient protégées. Aujourd’hui, ils souhaitent en “faire ce qu’ils veulent”, ce qui relève d’un dessein individuel », indique la patronne de la CNIL.

Hypercapitalisme, ou partage ?

Sommes-nous à l’aube d’un hypercapitalisme où tout sera marchandise – les corps et les âmes –, porte ouverte à tous les excès et à tous les despotismes ? Nous dirigeons-nous, au contraire, vers un post­capitalisme où le partage remplacera l’échange commercial ? Ou plutôt, quel sera le dosage final entre ces deux solutions extrêmes ? Enfer ou paradis, libération ou asservissement, le monde que nous dessine la révolution numérique fera de nous et des générations à venir des êtres différents… et en même temps si semblables dans leurs élans et leurs doutes. Comme Prométhée, nous toucherons à la puissance divine pour nous apercevoir qu’elle est, à nouveau, plus loin que jamais.

* « Bienvenue dans le capitalisme 3.0 », par Sandrine Cassini et Philippe Escande, éditions Albin Michel, 18 euros.

Article des Echos paru à

publié  LE 05/10 À 07:00, MIS À JOUR LE 07/10 À 15:44


Demain, on imprimera peut-être nos batteries !

Une start-up américaine travaille sur des batteries imprimables, flexibles et rechargeables, à base de zinc. Une technologie qui pourrait bien révolutionner le design et la taille des produits wearable.
Demain, on imprimera peut-être nos batteries ! dans INNOVATION dot
dot dans technologie
Nous ne sommes pas un fabricant de batteries comme les autres ». Le ton pourrait paraître présomptueux mais les responsables de la start-up Imprint Energy sont juste conscients de la valeur de leur entreprise. Car ils sont peut-être à la veille de bouleverser le marché du wearable grâce à la mise au point d’une technologie disruptive : le ZincPoly.
Tout a commencé en 2010, lorsque la chercheuse Christine Ho crée une société pour exploiter ses recherches sur des batteries microscopiques à Berkeley. Car elle a une idée de génie : déposer une plaque de zinc au sein de l’accumulateur, au lieu du lithium-ion majoritairement employé encore aujourd’hui pour alimenter les appareils portables et les véhicules électriques. Deux ans plus tard, Imprint Energy dépose un premier brevet.

Contrairement au lithium, le zinc est stable, non-toxique et non-volatile. Pas besoin de le placer dans une gaine protectrice rectangulaire donc. Ce qui permet de produire des batteries aussi fines et petites qu’un timbre-poste. Du coup, il devient possible de les fabriquer à partir d’une imprimante industrielle ordinaire. Une véritable révolution pour les designers qui pourront imaginer des produits wearable peu onéreux et avec moins de contraintes au niveau des formes.


© Imprint Energy
Restait à surmonter un gros obstacle : la densité d’énergie du zinc est plus faible que celle du lithium. Christine Ho a résolu le problème en mettant au point une membrane électrolyte polymère solide qui rend les batteries rechargeables. Et comme ce n’est pas toxique, on peut imaginer les placer directement… sur la peau et même carrément à l’intérieur du corps humain. Imprint Energy serait ainsi en discussions avec l’armée américaine pour concevoir des batteries avec des capteurs surveillant ainsi la santé des soldats !
Imprint Energy a levé 6 millions de dollars au mois de juin dernier auprès de Phoenix Venture Partners et d’AME Cloud Ventures, le fond de placement du cocréateur de Yahoo Jerry Yang. De quoi finaliser le développement et préparer le lancement commercial du produit.
Source :
source: tà

croquefeuille |
Succès Marketing |
Entre Organisation et Equit... | | Créer un blog | Annuaire | Signaler un abus | 3D-Margot-Marina-Franck
| On s'amuse...
| cuisinebio