Archives pour la catégorie Reglementations

Les géants du lait sont accusés d’appauvrir les fromages AOP

Véronique Richez-Lerouge, auteure de Main basse sur les fromages AOP.

 LIVRES ET IDÉES – Véronique Richez-Lerouge, journaliste et défenseure de la diversité des fromages français, dénonce l’hégémonie grandissante des multinationales du lait sur les fromages AOP.

Coup de tonnerre dans le monde du camembert au lait cru normand. Lactalis, le géant lavallois du lait, met la main sur Graindorge, l’un des derniers producteurs de camembert au lait cru AOP (appellation d’origine protégée). Il fait ainsi tomber dans son escarcelle le numéro deux du camembert de Normandie, mais aussi le leader du livarot et du pont-l’évêque, deux autres AOP normandes très reconnues.

C’est de ce rachat apparemment anodin que part Véronique Richez-Lerouge, journaliste et défenseure de la diversité des fromages français, pour dénoncer l’hégémonie grandissante des multinationales du lait sur les fromages AOP. Ce label français dont les contours s’affirment en 1935 avec la première AOP roquefort aurait largement perdu de son efficacité. De fait, il n’empêche plus l’hyper-industrialisation de savoir-faire

Les géants du lait sont accusés d'appauvrir les fromages AOP dans ACTEURS XVM24ab3278-0191-11e7-aad0-d9371b2c396c-300x400

 

centenaires. Un an après La vache qui pleurequi dénonçait la déperdition qualitative du lait industriel, et alors que s’est clos dimanche le Salon de l’agriculture, Véronique Richez-Lerouge dévoile avec Main basse sur les fromages AOPune enquête très fouillée au cœur des territoires des 50 AOP laitières françaises.

Volume ne rime pas avec maintien de la qualité

Après un détour sur la genèse du label AOP et son rôle de protection des savoir-faire fromagers tricolores, l’amoureuse du fromage dresse un état des lieux des forces en présence. Elle démontre l’impact négatif sur la qualité des fromages AOP de la concentration du secteur aux mains des multinationales. «Il n’est pas question d’attaquer les industriels, ce que sont aussi les PME qui font des AOP de très bonne qualité, explique l’auteure. Mais l’histoire montre qu’il est impossible de concilier une logique de volumes – celle des multinationales – et le maintien de la qualité.» Aucun grand groupe laitier, privé ou coopératif, n’est épargné: de Lactalis à Sodiaal en passant par Savencia ou Eurial (branche lait d’Agrial). «Tous vont dans les AOP, car même si c’est une petite partie de leur activité, c’est une vitrine très flatteuse auprès du consommateur, avec des images d’Épinal.»

Problème: en recourant systématiquement à la pasteurisation (autorisée dans la majorité des cahiers des charges AOP), les multinationales tirent vers le bas la qualité de ces fromages. Au travers de l’enquête, la journaliste revient aussi sur les raisons du dévoiement progressif du système AOP, «un système génial à l’origine qui a permis à des filières entières de se développer, mais qui n’assure plus son rôle de protection».

Aujourd’hui, deux tiers des fromages AOP (camembert, roquefort, cantal…) sont ainsi sous la coupe de géants laitiers. Infiltrés à l’Inao (Institut national de l’origine et de la qualité), un organisme censé défendre les AOP, ces groupes pèsent de tout leur poids pour ne pas durcir les cahiers des charges – parfois très légers – des AOP fromagères. De quoi conduire à des affrontements avec des producteurs fermiers qui veulent éliminer la pasteurisation de la production AOP. Un combat perdu d’avance pour Véronique Richez-Lerouge, tant l’Inao se déclare incompétent sur les sujets économiques.

Ce laissez-faire est dénoncé par l’auteure, tout comme le silence de l’Autorité de la concurrence, qui laisse notamment Savencia contrôler 80 % de l’époisses ou Lactalis 90 % du marché du livarot. Du coup, l’auteure préconise une réaffirmation du rôle de ces deux entités, en limitant à 20 % la présence des multinationales dans les AOP.

  • Par Olivia Detroyat
  • Publié le 09/03/2017 à 00:39
  • par http://www.lefigaro.fr/conso/2017/03/09/20010-20170309ARTFIG00001-les-geants-du-lait-sont-accuses-d-appauvrir-les-fromages-aop.php

Nouvelle mesure d’étiquetage des produits laitiers, bonne idée ou poudre aux yeux ?

À partir du 1er janvier 2017, une mesure d’étiquetage du lait et des produits dérivés comme le fromage et les yaourts sera testée pendant deux ans. Lancée avec l’accord de Bruxelles et du Conseil d’État, cette mesure oblige les industriels à préciser l’origine du lait utilisé dans leurs produits. À qui profite cette mesure, et quels en sont les buts avoués et cachés ?

Nouvelle mesure d'étiquetage des produits laitiers, bonne idée ou poudre aux yeux ? dans AGRO c57de2b0fda9b38c0f4a57e5fabc4bcf-627x417
La provenance du lait, un argument de vente ?

Une mesure de protection des consommateurs

Dans le communiqué annonçant la validation du Conseil d’État, Le ministre de l’Agriculture Stéphane Le Foll s’est félicité de cette mesure « qui permettra aux citoyens de bénéficier d’une meilleure information ». Effectivement, les consommateurs peuvent être désireux d’acheter des produits locaux, pour limiter le transport des marchandises et la pollution, favoriser l’économie locale et les éleveurs français, et bénéficier de la qualité que l’on peut attendre des produits des fermes françaises.

Une mesure de protection des agriculteurs

La mesure sert surtout à soutenir les producteurs. Les industriels auront tout intérêt à s’approvisionner en France et à utiliser la provenance française de leurs produits laitiers comme argument de vente. N’achèteriez-vous pas un produit estampillé « Lait conditionné et collecté en France » plutôt qu’un autre ? Mais Olivier Picot, président de la Fédération Nationale des Industries Laitières (FNIL), estime que cet étiquetage est contraire au principe de libre-échange dans l’Union européenne. Il affirme que la France n’a pas besoin de cette mesure protectionniste, car le pays exporte 40% de sa production. Pourtant, les importations sont en augmentation constante ces dernières années, motivées par des prix plus bas chez les producteurs voisins.

Une mesure favorablement accueillie

Les consommateurs sont en demande de transparence. De leur côté, les producteurs laitiers ne cessent de dénoncer une pression tarifaire des grandes industries laitières. Selon eux, le prix négocié par Lactalis avec les producteurs ne permet même pas de couvrir les coûts de production. Ils ont donc procédé à leur propre campagne d’étiquetage. Le 29 juillet, on pouvait lire sur les bouteilles de lait Lactalis de la Sarthe : « Ce produit laitier ruine les éleveurs » ou « Ce produit laitier crée du chômage ». Mais selon Lactalis, le vrai problème est la surproduction laitière en Europe, malgré la forte demande chinoise. Le problème n’est donc pas résolu, mais gageons que cette mesure renforcera les liens entre producteurs locaux et consommateurs français.

Trucs et astuces

La mesure adoptée prévoit également un étiquetage indiquant l’origine de la viande sur les produits transformés. N’oubliez pas vos lunettes au moment de faire les courses, il risque d’y avoir de la lecture !

Boursorama avec Pratique.fr le 09/08/2016 à 12:15

Alimentation : un étiquetage pour les plats préparés dès 2017 ?

Stéphane Le Foll a annoncé que le projet de traçabilité de la viande dans les plats cuisinés était bien en marche. Le ministre de l’Agriculture a en effet déposé un projet de décret au Conseil d’État…

Alimentation : un étiquetage pour les plats préparés dès 2017 ?

(Boursier.com) — Les Français pourraient bientôt savoir d’où vient le boeuf de leur plat cuisiné… Un projet de décret visant à rendre l’étiquetage de l’origine des viandes obligatoire, lorsqu’elles sont présentes comme ingrédients dans les plats préparés, a en effet été déposé auprès du Conseil d’Etat. Dans le communiqué du ministère de l’Agriculture, il est indiqué que le projet devrait également concerner le lait, utilisé comme ingrédient dans les produits laitiers.

Le Conseil d’État a deux mois pour donner son avis. S’il est positif, le dispositif pourrait ainsi « entrer en vigueur au 1er janvier 2017 pour une période de 2 ans », annonce le ministère de l’Agriculture. Le 11 mars dernier,Stéphane Le Foll avait déjà saisi la Commission européenne d’un projet de décret prévoyant l’étiquetage de ces produits.

La Commission européenne a donné son feu vert

Le ministre de l’Agriculture a d’ailleurs indiqué avoir reçu l’aval du commissaire européen à la Santé et à la Sécurité alimentaire en mars 2016. Vytenis Andriukaïtis a affirmé dans une lettre adressée aux autorités français que « rien ne s’opposait au lancement d’une expérimentation telle que proposée par la France ».

Dès cet été, une concertation est prévue pour définir « les modalités précises de mise en oeuvre de ces règles d’étiquetage, avec l’ensemble de la filière et les associations de défense des consommateurs », indique le ministère dans le communiqué.

Selon les informations d »Europe 1, le décret ferait référence à la présence d’au moins 50% de viandes ou de lait dans le plat concerné. Concernant la viande, le décret rendra obligatoire la précision d’origine, au « pays de naissance, d’engraissement et d’abattage » de l’animal. Pour le lait, il faudra indiquer « le pays de collecte, de conditionnement et de transformation ».

Un étiquetage demandé depuis quelques années

Alors que cela se fait déjà pour la viande fraîche, l’étiquetage des produits transformés dans les plats cuisinés est réclamé depuis plusieurs années, aussi bien par les associations de consommateurs que par les éleveurs français. La demande s’est endurcie depuis le scandale sanitaire des lasagnes à la viande de cheval qui avait éclaté en 2013. Au moins six pays avaient alors affirmé avoir trouvé du cheval dans des lasagnes surgelées : la France, le Royaume-Uni, l’Allemagne, la Suisse, la Suède et la Norvège.

Selon une enquête publiée en février par « Familles rurales », 41% de Français ne se sentaient pas mieux informés sur l’origine de la viande, après la crise des « lasagnes au cheval ». Pour les plats préparés qu’ils consomment plus particulièrement, 91% des sondés ne savaient d’où elle provient…

Estelle Nguyen — ©2016, Boursier.com

Publié le 6/7/2016 à http://www.boursier.com/actualites/economie/alimentation-un-etiquetage-pour-les-plats-prepares-des-2017-32159.html?fil17

 

 

En France, les toits des zones commerciales seront verts ou ne seront pas

L’Assemblée nationale vient de voter un amendement obligeant les nouveaux centres commerciaux à végétaliser leurs toits, ou à y installer des moyens de production d’énergie renouvelable. L’objectif : limiter les « îlots de chaleur urbains ».


Un toit végétalisé, à Toronto (Crédit : Scott Torrance Landscape Architect Ltd)

Un toit végétalisé, à Toronto (Crédit : Scott Torrance Landscape Architect Ltd)
Lors de son inauguration, en avril 2014, le centre commercial Beaugrenelle faisait figure d’exception. 7 000 m2 de toiture recouverts de plantes, en plein Paris ! Mais ce qui reste, à ce jour, la plus vaste toiture végétalisée de la capitale, devrait bientôt devenir la norme.

Car désormais, en France, tous les nouveaux bâtiments situés en zone commerciale devront suivre cet exemple. L’amendement adopté jeudi 19 mars, dans le cadre du projet de loi « pour la reconquête de la biodiversité, de la nature et des paysages » (votée mardi 24 mars à l’Assemblée nationale), prévoit l’installation, sur les toitures, de « dispositifs végétalisés » destinées à rafraîchir l’air ou « de production d’énergie renouvelable ».


Le toit du Palais de Chaillot, à Paris (Crédit : Milena Chessa / Le Moniteur.fr)

Le toit du Palais de Chaillot, à Paris (Crédit : Milena Chessa / Le Moniteur.fr)
Les associations écologiques et les Verts souhaitaient initialement que ces aménagements soient réalisés « sur l’ensemble des toitures »des nouveaux bâtiments. Mais le gouvernement, craignant une mesure trop « contraignante pour les porteurs de projets commerciaux », a opté pour un compromis : les constructeurs pourront choisir de recouvrir « tout ou une partie » de leurs toits de verdure. Et s’ils ne souhaitent pas y planter de fleurs ou autres plantes, ils peuvent choisir d’y installer des éoliennes ou des panneaux photovoltaïques.

Comme la surface minimale de ces dispositifs n’a pas encore été précisée, les associations sont dans l’attente d’une deuxième lecture, ou d’un décret d’application qui en fixerait les normes et les seuils. « Même si cette question n’a pas encore tranchée, l’amendement en soi est un grand pas », affirme Christophe Aubel, président d’Humanité et Biodiversité. « En attendant, nous allons continuer à inciter les bâtiments existants, dont la structure supporterait de telles installations sans avoir recours à de coûteux travaux d’investissement, à verdir leurs toits également ».

LA CINQUIÈME FAÇADE QUI RAFRAÎCHIT LES VILLES

Si la mesure ne concerne que les zones commerciales, c’est que les toits des bâtiments y sont suffisamment vastes et bas. Les végétaux qu’ils supportent peuvent ainsi refroidir des volumes d’air conséquents, à proximité du sol.

En effet, les toits végétalisés favorisent l’absorption et le stockage de l’eau de pluie. Une eau qui, lors du processus d’évaporation, rafraîchit l’air ambiant, ce qui permet de réduire l’usage de la climatisation à l’intérieur des bâtiments.

Mais les toits végétalisés génèrent un autre type d’économies d’énergie pour les bâtiments : cette « cinquième façade » améliore leur isolation, notamment au niveau du dernier étage.

L’apport d’énergies renouvelables, enfin, doit aider à couvrir une grande partie de leur consommation.


(Crédit : GEP VegDUD-VD synthèse P&C, oct. 2014)

(Crédit : GEP VegDUD-VD synthèse P&C, oct. 2014)
D’après une étude réalisée entre 1998 et 2008 par l’Ifsttar (Institut français des sciences et technologies des transports, de l’aménagement et des réseaux) et Météo-France, « les toitures végétalisées permettent d’économiser de l’énergie quelle que soit la saison », avec 23 % de gains en été, voire 28 % si les toitures sont arrosées régulièrement.

En hiver, ces gains de consommation sont plus faibles (4,5 %), mais « les économies d’énergies correspondantes [sont] plus importantes ». Seule limite observée par l’Ifsttar : ces toits verts n’amélioreraient que « peu » le confort thermique à l’intérieur des bâtiments.

 L'ONG Climate Change a imaginé une infographie interactive qui permet de comprendre le réchauffement des villes à l'horizon 2010 (Crédit : Climate Change Central)
L’ONG Climate Change a imaginé une infographie interactive qui permet de comprendre le réchauffement des villes à l’horizon 2010 (Crédit : Climate Change Central)
Des gains d’ores et déjà observés à Toronto, au Canada, où, depuis 2009, les toits verts sont obligatoires pour toute construction de bâtiments en zone industrielle et résidentielle.

Ces initiatives visent à rendre les villes, que les chercheurs décrivent comme des « îlots de chaleur urbains », plus vivables et moins énergivores. D’autant que la température qui y règne va croissante. Selon une récente étude de l’ONG scientifique Climate Change Central, à l’horizon 2100, New York devrait par exemple connaître les températures de la Floride.

Lara Charmeil
Journaliste à We Demain
@LaraCharmeil

La mention « Fait maison » fait son apparition dans la restauration

  • La mention « Fait maison » apparition restauration

    La mention « Fait maison » fait son apparition dans la restauration

Les conditions dans lesquelles la mention « Fait maison » peut être apposée sur les cartes des restaurants ont été précisées.

Destinée à « mieux informer les consommateurs sur les plats qui leur sont servis et à valoriser le métier de cuisinier », la fameuse mention « Fait maison » peut désormais figurer sur les menus proposés par les restaurants et les entreprises de plats préparés à emporter. En effet, le décret qui devait préciser les conditions d’utilisation de cette mention a été récemment publié.

Des produits bruts, mais pas forcément frais

Ainsi, le texte, très attendu par la profession, précise ce qu’il faut entendre par plat « fait maison ». Il s’agit des plats cuisinés sur place à partir de produits bruts, c’est-à-dire n’ayant subi aucune modification importante, y compris par chauffage, marinage ou assemblage. Le but étant de distinguer ces plats des plats industriels, simplement réchauffés ou assemblés sur place. Une sauce toute prête, par exemple, ne répond pas aux critères du « fait maison ».

Un certain nombre de produits, énumérés par le décret, peuvent toutefois entrer dans la composition d’un plat « fait maison » bien qu’ils aient été transformés ailleurs. Il s’agit :

- des salaisons, saurisseries et charcuteries, à l’exception des terrines et des pâtés ;

- des fromages, des matières grasses alimentaires, de la crème fraîche et du lait ;

- du pain, des farines et des biscuits secs ;

- des légumes et fruits secs et confits ;

- des pâtes et des céréales ;

- de la choucroute crue et des abats blanchis ;

- de la levure, du sucre et de la gélatine ;

- des condiments, épices, aromates, concentrés, du chocolat, du café, des tisanes, thés et infusions ;

- des sirops, vins, alcools et liqueurs ;

- de la pâte feuilletée crue ;

- et, sous réserve d’en informer par écrit le consommateur, des fonds blancs, bruns et fumets.

De même, les légumes déjà épluchés et découpés, à l’exception des pommes de terre (qui doivent être entièrement préparées, notamment en frites ou en purée, par le restaurateur), la viande hachée ou désossée, la viande ou le poisson découpé et les produits fumés, salés, surgelés ou conditionnés sous vide peuvent également être utilisés dans les plats « faits maison ».

Des plats élaborés sur place

Un plat « fait maison » doit normalement être élaboré dans les locaux de l’établissement dans lequel il est proposé à la vente ou à la consommation. Il ne peut être conçu dans un lieu différent que dans le cadre d’une activité de traiteur organisateur de réception ou dans le cadre d’une activité de commerce ambulant (foires, marchés, manifestations de plein air).

La mention « fait maison » indiquée de façon visible

Les restaurateurs doivent indiquer de manière visible par tous les consommateurs la mention : « Les plats faits maison sont élaborés sur place à partir de produits bruts ». Lorsque l’ensemble des plats proposés est fait maison, cette mention ou le logo peuvent figurer à un endroit unique visible par tous les consommateurs. Ils peuvent figurer, le cas échéant, pour chacun des plats sur les supports utilisés pour les présenter.

En pratique : le logo certifiant le « Fait maison », qui représente une casserole sur laquelle est posé le toit d’une maison, est disponible sur le site Internet du ministère de l’Economie www.economie.gouv.fr. Il est imprimable ou reproductible à la main.

Décret n° 2014-797 du 11 juillet 2014, JO du 13

Arrêté du 11 juillet 2014, JO du 13

En savoir plus sur http://business.lesechos.fr/entrepreneurs/juridique/4506127-la-mention-fait-maison-fait-son-apparition-dans-la-restauration-101790.php?xtor=EPR-22-[entrepreneurs]-20140722-[s=542199_n=10_c=_]-1813589@2&quOkqDwg2H3S25Lf.99

Fait maison, décret bidon

L'idée du « fait maison » est désormais inscrite dans la loi n° 2014-344 du 17 mars 2014 relative à la consommation.

En voilà une idée qu’elle était bonne : distinguer les restaurants qui cuisinent chez eux des produits frais de ceux qui assemblent des plats en kit fournis par l’industrie agroalimentaire. Tout le monde était d’accord. Les organisations professionnelles, soudain stupéfaites d’apprendre que 75 % de leurs membres s’approvisionnaient chez Metro ; le premier cercle des chefs étoilés, inquiets de la dégradation de l’image de la gastronomie française et de la disparition du savoir-faire ; les consommateurs, enfin, de plus en plus soucieux de l’origine de leur assiette et n’allant plus au restaurant pour payer bonbon des plats préparés, disponibles en grandes surfaces. Les instances politiques, attentives à la demande populaire et soucieuses de la réputation du pays, ont réagi.

Tout a commencé par l’amendement Siré en octobre 2011 sous la précédente mandature. Dans un souci d’information du consommateur, ce député UMP des Pyrénées-Orientales proposait de préciser sur la carte si « les plats ont été confectionnés ou non dans l’établissement et sont à base de produits frais ». Le texte est passé d’une chambre à l’autre et a fini, vidé de sa substance, dans un tiroir parlementaire à l’heure de la présidentielle.

Au sujet de l’amendement Siré : L’astérisque et l’étiquette

Il a fallu l’arrivée de Benoît Hamon au ministère de l’artisanat, du commerce et du tourisme pour réactiver la machine législative autour d’une idée, le « fait maison », désormais inscrite dans la loi n° 2014-344 du 17 mars 2014 relative à la consommation.

« Un plat « fait maison » est élaboré sur place à partir de produits bruts. Des produits, déterminés par voie réglementaire, peuvent entrer dans la composition des plats « faits maison » après avoir subi une transformation de leur état brut nécessaire à leur utilisation. » Autant dire que le décret d’application était attendu avec fébrilité, la loi devant entrer en vigueur dès l’été.

UNE SEULE EXCEPTION : LES FRITES CONGELÉES

Le fameux texte doit paraître incessamment au Journal officiel sous la signature de Carole Delga, la nouvelle secrétaire d’Etat en charge du dossier. Dans sa version quasi définitive, l’article II indique : « Peuvent entrer dans la composition d’un plat « fait maison », les produits qui ont été tranchés, coupés, broyés, hachés, nettoyés, désossés, dépouillés, décortiqués, taillés, moulus ou broyés, fumés, salés, réfrigérés, congelés, surgelés ou décongelés. »

En découvrant ces lignes, j’ai compris que la messe était dite et que les lobbys de l’agroalimentaire avaient eu gain de cause : tous les produits bruts congelés – les branches d’épinard comme les crevettes – pourront figurer dans un plat « fait maison », qui sera dispensé de facto de mentionner sur la carte qu’il en contient. Rusé ! Une seule exception : les frites congelées ne sont pas acceptées, de peur que McDo et compagnie ne puissent vendre du « fait maison ».

La pâte feuilletée, les fonds de tarte, les glaces, les blancs et les jaunes d’œuf séparés vendus au litre, les fonds de sauce blancs, bruns et fumets et la mayonnaise (pour des motifs hygiénistes) sont aussi autorisés. Cerise sur le gâteau, le restaurateur peut utiliser des produits transformés ailleurs, « dès lors que la marque du produit ou le nom du professionnel qui l’a fabriqué est expressément indiqué » ! Autrement dit, les lasagnes de bœuf Spanghero ou l’andouillette à Bobosse mentionnées comme telles peuvent figurer au menu du « fait maison ».

CE DÉCRET VIDE LA LOI DE SON ESPRIT

S’il convient ici de rappeler que les produits de l’industrie agroalimentaire sont parfaitement comestibles (à quelques scandales près), il est néanmoins permis de constater que ce décret vide la loi de son esprit : permettre au client dedistinguer le restaurant qui cuisine chez lui des produits frais de la masse de ceux qui offrent des plats venus d’ailleurs et sans CV.

L’idée était également d’encourager les circuits courts, l’approvisionnement local et la création d’emplois, indispensables dans les établissements qui épluchent les légumes, lèvent les filets de poisson et brident les volailles. La cascade de dérogations ruine ces espoirs qu’un logo « fait maison » ne suffira pas à instaurer.

Les syndicats sont partagés sur le texte : insuffisant selon l’Umih (Union des métiers et des industries de l’hôtellerie) ; « premier pas positif » selon le Synhorcat (Syndicat national des hôteliers, restaurateurs, cafetiers et traiteurs). Il sera intéressant d’évaluer le succès de ce logo qui exposera ceux qui l’affichent aux contrôles de la Direction générale de la concurrence, de la consommation et de la répression des fraudes.

On assure au ministère qu’ils seront à caractère pédagogique dans un premier temps, mais chacun sait le peu d’engouement de la profession pour ce genre de pratiques. Au final, ce texte ne satisfait ni la profession ni les partisans du vrai fait maison, et n’éclairera guère les clients. Un décret dans l’air du temps : mou.

Publié sur LeMonde.fr par JP Gené Chroniqueur M le Magazine

du Monde | 10.07.2014 à 15h58  à http://www.lemonde.fr/le-magazine/article/2014/07/10/fait-maison-decret-bidon_4454963_1616923.html

Lire aussi : Les insuffisances du label « fait maison »

Agroalimentaire : Carrefour recule face à l’INAO

Carrefour vient de retirer son logo Origine et Qualité sur les quatre vingt produits que l’enseigne souhaitait afficher comme de terroir et de qualité. C’est une victoire pour les défenseurs des AOC.

Le Logo de Carrefour retiré © France 3 Basse Normandie
© France 3 Basse Normandie Le Logo de Carrefour retiré
 L’affaire remonte au dernier salon de l’agriculture, en février dernier, à Paris. Des présidents d’AOC fromagères ( Camembert, Pont l’Evéque et Comté) manifestaient leur colère face à l’enseigne Carrefour qui lançait une campagne de publicité  sur sa nouvelle marque générique : Origine et Qualité.
Tentative d’usurpation d’un signe de qualité publique ou bluff marketing ?
Carrefour vient d’enlever les sigles bleus des produits dont elle souhaitait faire la promotion…
Rappel des faits et réactions des professionnels : Rémy Mauger et Loïc Blache

Voir la vidéo

Carrefour renonce face à l’INAO
Publié sur France3 Régions à http://france3-regions.francetvinfo.fr/basse-normandie/2014/07/15/agroalimentaire-carrefour-recule-face-l-inao-517707.html
Par Sabine Daniel

  • le 16/07/2014

L’agroalimentaire à l’offensive contre l’étiquetage des OGM aux Etats-Unis

WASHINGTON, 06 fév 2014 (AFP) – L’industrie agroalimentaire américaine a lancé jeudi une nouvelle offensive pour défendre les OGM, contenus dans 80 % des aliments aux Etats-Unis, rejetant avec force tout étiquetage obligatoire.

Cette initiative menée par une coalition d’organisations agroalimentaires intervient alors qu’une bataille sur l’étiquetage des organismes génétiquement modifiés (OGM) bat son plein dans le pays. Les projets de lois se sont multipliés dans une vingtaine d’Etats en faveur de labels signalant au consommateur que tel ou tel produit en contient. Un tel étiquetage est obligatoire dans une soixantaine de pays dans le monde.

La coalition formée de 29 membres dont la puissante Grocery Manufacturers Association, qui représente les grands groupes agroalimentaires et agrochimiques américains, lance un appel au Congrès « pour rapidement trouver une solution au niveau fédéral qui établirait des normes de sécurité et d’étiquetage des aliments et des boissons produits avec des OGM ». « Une solution fédérale à la question de l’étiquetage des OGM renforcerait la confiance des consommateurs dans la sûreté des aliments aux Etats-Unis, en réaffirmant le rôle de l’Agence des produits alimentaires et des médicaments (FDA) comme seule autorité nationale sur l’étiquetage de ces produits », a fait valoir lors d’une conférence de presse Martin Barbre, le président du Groupement américain des producteurs de maïs. Une telle approche dissiperait « la confusion et l’incertitude d’un patchwork de lois de 50 Etats sur la sûreté et l’étiquetage des OGM », estime la coalition.

Celle-ci propose de rendre obligatoire un examen par la FDA de la sûreté de nouvelles technologiesd’OGM avant qu’elles puissent être commercialisées. Aujourd’hui, l’agence se contente de prendre pour argent comptant ce que déclarent les entreprises, sans contre-vérification.

« LES OGM SONT NÉCESSAIRES »

Concernant les OGM, la coalition propose un étiquetage obligatoire seulement si les autorités constatent qu’un de ces produits pose un risque pour le consommateur. En revanche, insistent les groupes agroalimentaires, « il n’y a aucune raison d’imposer un étiquetage pour tous les produits OGM jugés sûrs », soit la quasi-totalité.

La coalition propose en outre que la FDA établisse des normes fédérales pour les sociétés qui volontairement étiquetteraient leurs produits pour indiquer la présence ou non d’OGM. Enfin, elle demande à ce que la FDA « définisse le terme « produit naturel » » pouvant être appliqué par les sociétés agroalimentaires à leurs produits, permettant de créer un cadre légal de référence pour l’industrie et les consommateurs. « Aujourd’hui, 80 % de notre alimentation contient des OGM dont le maïs et le soja, et il n’y a pas une seule étude scientifique qui montre que ces aliments sont différents des autres », a souligné devant la presse Pamela Bailey, présidente de la Grocery Manufacturers Association.

« Les lois régissant la sûreté et l’étiquetage de nos aliments ne devraient pas être décidées par des campagnes politiques ou des législatures des Etats mais par la FDA », a-t-elle aussi martelé. « Les aliments produits avec des OGM sont sûrs et présentent nombre de bienfaits importants pour le public et la planète », a dit Pamela Bailey, précisant que les cultures OGM nécessitent moins d’eau et de pesticides.

« Avec une population mondiale qui devrait passer de sept à neuf milliards de personnes d’ici 2050, nous aurons besoin de produire 70 % d’aliments en plus et les OGM sont nécessaires », a-t-elle ajouté.

Selon un sondage du New York Times fin 2013, 93 % des Américains sont favorables à l’étiquetage des OGM. Pour Andrew Kimbrell, directeur du « Center for Food Safety », un groupe de défense des consommateurs, cette nouvelle coalition de puissants intérêts est une nouvelle tentative pour contrecarrer les pressions en faveur de l’étiquetage des OGM. « Ils savent que le mouvement dans le public en faveur de l’étiquetage des OGM grandit et que ce n’est qu’une question de temps », a-t-il ajouté dans un communiqué.

Andrew Kimbrell rappelle que ces sociétés agroalimentaires ont dépensé près de 70 millions de dollars en Californie et dans l’Oregon pour faire échouer des projets de lois rendant obligatoire l’étiquetage. Cette question est également un point épineux des discussions entre les Etats-Unis et l’Union européenne sur la création d’une zone de libre échange transatlantique.

Publié par Terre-net à http://www.terre-net.fr/actualite-agricole/economie-social/article/l-agroalimentaire-a-l-offensive-contre-l-etiquetage-des-ogm-202-97974.html

Agroalimentaire : les nouveaux enjeux de la sécurité sanitaire

La maîtrise des risques sanitaires est une exigence fondamentale des sociétés modernes, en particulier dans le domaine sensible de l’alimentation. Les progrès considérables ont été réalisés depuis cinquante ans. Néanmoins, l’horizon semble parfois reculer et des crises surviennent régulièrement. Il reste difficile d’accepter que le risque zéro n’existe pas alors que des dangers apparaissent, dont on n’avait pas conscience jusqu’à présent. Quels sont les défis aujourd’hui, et comment les relever ?

Commençons par revenir sur les évolutions récentes, qui sont spectaculaires. La sécurité sanitaire des aliments connaît depuis plusieurs décennies une sorte de révolution permanente, marquées à la fois par des crises, des ruptures technologiques, et de profondes évolutions sociales, économiques et politiques.

Le risque sanitaire au centre des attentions
Ces changements concernent au premier chef l’espace et le temps. L’espace, d’abord : les échelles auxquelles on doit analyser les dangers sanitaires ont été fondamentalement modifiées. En quelques décennies on est passé d’une appréciation des risques au niveau familial et local à des échelles nationales, continentales, puis globales. La fameuse crise de la vache folle, comme les crises associées aux Listeria, dans les années 1990, en sont de bons exemples, puisqu’elles ont impliqué des flux nationaux voire transfrontaliers. Le temps, ensuite : les temporalités sur lesquelles on doit gérer ces risques se sont contractées. On est passé d’une gestion sur le long cours, insistant sur l’éducation à l’hygiène et la réduction progressive des dangers, à une gestion dans l’instant et dans l’urgence, avant de faire un nouveau pas en avant avec la prévention généralisée, voire l’application du principe de précaution. Ainsi, dès le début des années 1990 émerge un nouveau champ d’application des mathématiques, celui de la modélisation et de la prévision des risques associés aux développements microbiens dans les aliments : la microbiologie prévisionnelle.

Aux changements d’échelle et de temporalité s’ajoute une complexification croissante des processus à prendre en compte dans l’analyse. Cela touche d’abord la maîtrise des dangers. L’insistance sur le risque est sans aucun doute un trait marquant de l’industrie agroalimentaire depuis ses origines, contemporaines de la microbiologie et de l’apparition des bases de l’hygiène. La prise en compte des dangers biologiques et microbiologiques reste aujourd’hui au cœur des procédures de fabrication et de contrôle. Mais le cadre d’analyse a changé : alors qu’il y a encore vingt ou trente ans on privilégiait une approche segmentée, isolant chacune des étapes de la vie du produit, on tend de plus en plus à considérer les processus dans leur intégralité, « du champ à la table ».

Dans ce contexte, il devient essentiel de pouvoir conduire des investigations épidémiologiques et remonter à la source des dangers dans « la vie du produit » et anticiper les liens de causalité de l’amont à l’aval. Comme pour la police scientifique, l’émergence des méthodes de typage moléculaire et d’amplification génique au début des années 1990 a sensiblement amélioré les capacités d’expertise et de contrôle le long de cette chaîne. L’analyse moléculaire permet ainsi d’identifier les agents responsables de la contamination, de déterminer la source d’infection et les voies de transmission. L’amplification génique permet de mettre en évidence in vitro des quantités infinitésimales d’ADN : on reproduit en grande quantité un fragment d’ADN correspondant à un gène connu, puis à l’identifier grâce à une sonde spécifique capable de reconnaître le gène.

Au-delà de ce changement de régime dans l’évaluation et la gestion du risque, la complexification se joue aussi dans une multiplication des enjeux, et donc des acteurs impliqués. Il n’est plus simplement question de nourrir la population ou de construire des filières : ce sont désormais des politiques de santé publique qui sont concernées – sécurité des aliments, qualité de l’alimentation, impact des régimes alimentaires. Avec la création de l’OMC (1995) et la prise en compte de l’analyse des risques sanitaires comme unique argument ou presque de limitation des échanges commerciaux transfrontaliers, les préoccupations touchant à la santé publique s’entrecroisent avec le souci de protéger certains marchés. Elles se combinent aussi désormais aux enjeux de préservation de l’environnement, ce qui fait peser de nouvelles contraintes sur les différentes filières et conduit à faire émerger de nouvelles instances d’expertise et de régulation.

Les pays développés ont entrepris de faire évoluer les relations entre les autorités publiques, l’expertise scientifique et les entreprises. Le cadre juridique s’est inscrit progressivement dans une harmonisation réglementaire internationale. Les responsabilités respectives des acteurs publics et privés dans la gestion des risques ont évolué : ainsi, dans l’Union européenne, le « Paquet Hygiène » (cinq règlements communautaires adoptés entre 2002 et 2005) fait reposer une grande partie de l’effort sur les entreprises : la charge de la preuve est à l’industriel qui doit démontrer l’innocuité des substances utilisées.

Il ne faut pas, enfin, négliger la dimension culturelle de l’alimentation, qui inscrit la sécurité sanitaire dans des contraintes parfois contradictoires. La perception du risque alimentaire et la relation que nous entretenons avec notre alimentation impliquent à la fois une attente de progrès et de modernité et un souci de préservation de repères traditionnels. À cet égard le rôle des médias et leurs interactions avec les différentes parties prenantes (entreprises, administrations, agences d’expertise, associations de consommateurs) sont fondamentaux.

C’est dans ce contexte que les sociétés occidentales, en pointe sur ce sujet, se sont dotées de dispositifs de gestion et d’expertises scientifiques performants visant à anticiper la plupart des dangers identifiés et de gérer les risques avec efficacité. Dans l’ensemble, c’est un succès : malgré un accroissement de la diversité des dangers, les niveaux de risque sont restés à des valeurs très faibles. Mais tant la nature que la perception des risques évoluent constamment, et nous sommes aujourd’hui confrontés à plusieurs questions.

La première touche aux prochaines menaces : quelle importance accorder, en particulier, aux risques chimiques ? Sachant, ensuite, que le risque zéro n’existe pas, peut-on néanmoins continuer à réduire les risques existants, et selon quelles approches ? Cela conduit notamment à interroger le rôle de l’expertise, et la confiance que l’on peut lui accorder. Comment, enfin, l’enjeu de sécurité sanitaire des aliments se trouve-t-il intégré dans les grands défis planétaires de demain ? Tentons d’y voir plus clair.

Les dangers chimiques, nouvelle frontière ?
L’histoire récente est marquée par l’émergence des risques chimiques et toxicologiques. Ces risques sont associés aux pratiques d’élevage (hormones, résidus d’antibiotiques), aux pratiques culturales (produits phytosanitaires), aux procédés de transformation des produits (par exemple l’acrylamide, un polymère cancérigène qui se forme dans la caisson de certains produits) ou plus largement aux contaminations de l’environnement de production ou de transformation.

Les débats récurrents sur l’innocuité des produits phytosanitaires dans les aliments (insecticides, antiparasitaires…) en sont des exemples. Le DDT est interdit d’utilisation en Norvège et en Suède depuis 1970, aux États-Unis depuis 1972, en Grande-Bretagne depuis 1984. Mais, malgré les mesures prises pour limiter leur présence dans l’environnement, la rémanence des produits toxiques reste un sujet d’actualité : on peut citer les crises survenues récemment aux Antilles avec la chlordécone, un pesticide parfois présent dans les sols utilisés pour les cultures vivrières.

De très nombreuses substances sont potentiellement présentes dans les environnements naturels, industriels et commerciaux (emballages) des matières premières agricoles et des aliments transformés. Cette présence peut être liée à un manque d’anticipation ou à une situation accidentelle, voire frauduleuse (pollution, mélange de produits interdits…). Les crises récentes associées aux dioxines en sont une bonne illustration. Ces substances ont été par exemple introduites en 2009 dans l’alimentation animale (volailles, porcs) à partir de graisses frelatées avec de l’huile de moteur. Elles ont aussi été retrouvées, dans les années 1990 et 2000, dans des produits d’origine animale (par exemple le lait) à la suite de la contamination des prairies au voisinage d’incinérateurs défectueux ou ne disposant pas des installations adéquates pour limiter les émissions.

Dans les années à venir, les questions associées aux dangers chimiques devraient mobiliser de façon croissante l’ensemble des acteurs publics et privés, et ce pour plusieurs raisons.

Tout d’abord les capacités de détection s’améliorent, avec notamment la disponibilité croissante des méthodes de mesures à haute résolution. Il faut noter à cet égard que les recherches en toxicologie alimentaire, quelque peu délaissées ces vingt dernières années, font à nouveau l’objet d’investissements. D’ores et déjà on peut entrevoir des améliorations majeures dans l’identification et la caractérisation des dangers, avec par exemple de nouvelles approches pour tester la toxicité.

Cette dynamique de recherche répond à l’émergence de nouveaux risques. L’agroalimentaire est en effet un secteur très innovant, marqué par des innovations de rupture. L’apparition de nouvelles substances dont on ne connaît pas encore l’innocuité, comme les nanoparticules, impose une plus grande vigilance.

Enfin, la sensibilité nouvelle de l’opinion publique à l’égard des risques chimiques amène un peu partout dans le monde un renforcement des dispositions réglementaires. C’est notoirement le cas en Europe, avec la directive Reach de 2006 qui vise à supprimer progressivement dans l’Union les substances chimiques évaluées comme les plus dangereuses et ce quelles que soient les utilisations.

Jusqu’où peut-on réduire les risques ?
Qu’il s’agisse de risques chimiques ou microbiologiques, conventionnels ou émergents, le risque zéro n’existe pas. Cette réalité, redécouverte à la faveur des grandes crises qui ont marqué les années 1990 (ESB, Listeria…), est source d’inquiétude et de frustration. La population est travaillée par des craintes que ni l’expert (souvent incompréhensible), ni le politique (accusé de partialité), ni l’entreprise (suspectée d’être motivée par des considérations strictement économiques), ne sont en mesure de lever.

Pour le consommateur, le risque est d’autant moins acceptable qu’en dépit des exigences de traçabilité il ne connaît pas la provenance des matières premières ni plus généralement ce qui « se cache » derrière le produit : le danger, le processus, les acteurs impliqués. Son inquiétude est en quelque sorte la rançon de la complexité, de la sophistication des process industriels et des connaissances scientifiques engagés dans la production et la vérification des produits.

De fait, le nombre de dangers potentiels a nettement augmenté avec le développement, alors même que les risques sont globalement de mieux en mieux maîtrisés grâce à l’ensemble des dispositifs d’évaluation et de gestion. Les niveaux de risque considérés comme acceptables atteignent aujourd’hui des valeurs très faibles. Prenons l’exemple de la listériose, une infection très dangereuse causée par la Listeria monocytogenes. Entre 1987 et 1997 l’incidence des listérioses en France est passée de 16,7 cas par million d’habitants (toutes catégories de patients confondues) à 5,4 cas par million d’habitants , pour varier ensuite autour de 4 cas par million de 1999 à 2006. En Europe cette incidence se situe entre 2 et 10 cas par million. Peut-on aller encore plus bas sans que cela ait un impact sur notre modèle alimentaire et sur les coûts à supporter par les industriels et in fine les consommateurs ?

Pour les dangers désormais évalués et entrant dans les dispositifs de maîtrise, la recherche d’une diminution supplémentaire des risques aurait du mal, en général, à se justifier, dans la mesure où les dispositions déjà en vigueur sont respectées. La question n’est pas de savoir s’il faut éviter à tout prix une émergence, un accident qui est, en toutes probabilités, inévitable. L’objectif doit plutôt être de s’assurer qu’en cas de défaillance ou d’émergence du danger, les systèmes d’évaluation et de gestion soient réactifs pour limiter toute propagation. Certes, il existe encore des contrexemples récents tels que la crise des E.coli O104/H7, dites du « concombre », en Allemagne. Néanmoins, dans de nombreux pays, les dispositifs d’investigation, d’alerte, d’évaluation et de rappel ont fortement progressé.

On peut donc retourner le problème, en considérant que la question touche moins aux progrès possibles qu’à l’acceptation sociale du fait que les risques ne soient jamais nuls et que leur valeur soit fortement dépendante de nos choix de société. Il nous faudra donc, collectivement, réaliser des arbitrages. Le débat public est à cet égard balbutiant. Un enjeu fort des prochaines années sera d’offrir aux citoyens-consommateurs des informations leur permettant de mieux appréhender les conséquences économiques, sociales, environnementales d’une réduction supplémentaire de certains de risques vers une valeur encore plus faible (on parle de balance coût-bénéfice). Pour l’instant cette notion est peu présente dans les débats. Elle est pourtant au cœur de la période qui s’annonce : celle de la tension économique dans les territoires de production, celle de la tension globale sur nos ressources essentielles, celle d’un nouveau cadre d’innovation et de développement.

L’expertise en crise ?
Avec l’évolution des marchés alimentaires et les changements d’échelle de production et de distribution, les dimensions économiques et politiques associées aux questions sanitaires ont pris une importance stratégique. Cette accentuation des enjeux économiques et sociaux a placé l’expertise au cœur des décisions. Les recommandations scientifiques ont progressivement pris une dimension collective jamais égalée que ce soit sur le plan sanitaire, en raison de grande diffusion des produits concernés, ou sur le plan économique, en raison de l’importance prise par l’évaluation dans toutes les régulations nationales et internationales. L’expertise est donc devenue le centre de toutes les attentions… et de toutes les méfiances. La confiance dans les experts a été mise à mal avec les grandes crises des années 1990. Plus largement, elle ne peut en aucun cas se décréter, s’instituer. Il ne suffit plus de convoquer des compétences, des références académiques pour obtenir des citoyens une confiance aveugle dans les recommandations qui sont produites. Cette confiance est un sentiment fragile qui touche à des aspects fondamentaux de notre existence, comme la sécurité et le « vivre ensemble ». Elle se mérite, dit-on ! Pour y parvenir, trois grands principes se détachent des évolutions en cours. Un, l’intelligence collective et la pluralité des points de vue sont plus robustes qu’un avis individuel ; deux, l’expertise ne doit pas être influencée par des enjeux autres que ceux qui consistent à mobiliser en toute objectivité, la connaissance et l’analyse scientifique la plus pertinente ; trois, le citoyen doit avoir accès à l’information de façon transparente et ce pendant tout le processus d’expertise, de la question posée au résultat de l’analyse.

C’est à l’aune de ces principes que les agences créées dans les années 1990 à la suite des grandes crises sanitaires ont conduit leur action. Le cas de l’Agence française de sécurité sanitaire des aliments (Afssa) est exemplaire. Dès ses premiers mois d’existence, en 1999, l’agence a mis en place un processus indépendant et transparent de recrutement des experts ; elle a formalisé la conduite de l’expertise collective ; elle a établi des déclarations publiques d’intérêts (pour les experts comme pour ses personnels) ; elle a mené une politique très active d’information et de transparence, elle a joué son rôle de vigilance et d’alerte…

Cette nouvelle approche de l’expertise sanitaire a contribué à renforcer la confiance de la population. Cependant, la performance de ces dispositions n’est jamais acquise définitivement. Il existe des possibilités de dérives, des points de fragilité. À côté des conflits d’intérêts, d’autres défauts d’indépendance peuvent perturber l’objectivité de l’analyse scientifique : les partis pris idéologiques, éthiques, politiques. Il est très difficile d’en maîtriser l’expression. La seule façon d’y remédier consiste à s’appuyer sur la grande diversité des experts mobilisés dans les évaluations collectives. Le débat sur les OGM, tout comme celui qui a prévalu lors des crises sanitaires des années 90, sont des exemples particulièrement illustratifs de la fragilité de l’argumentation scientifique si celle-ci ne se conduit dans un cadre parfaitement neutre, légitime au yeux de tous et protégé de toutes suspicions.

Plus largement, il est très important que les processus d’expertise fassent l’objet d’évaluations régulières. Ces évaluations doivent porter sur les trois principes évoqués précédemment : pluralité des points de vue, indépendance et transparence.

L’enjeu de sécurité sanitaire et les défis planétaires
Les prévisions démographiques estiment la population mondiale à l’horizon 2050 à plus de 9 milliards d’humains. Cette évolution de la population pourrait conduire à une forte pression sur les productions agricoles et alimentaires. Dans ce contexte, la ressource agricole constitue une des quatre ressources fondamentales de l’humanité, avec l’eau de qualité en quantité suffisante, l’énergie disponible à coût supportable, la biodiversité et les services écologiques qui lui sont associés.

Le défi à relever n’engage pas seulement notre capacité collective à préserver la disponibilité de chacune de ces ressources. Il tient aussi à leur forte interrelation, qui rend l’ensemble du système particulièrement instable, et à l’arrivée d’un nouveau facteur de perturbation, le changement climatique.

Ces nouveaux enjeux de durabilité produisent déjà des perturbations dans les flux de produits et de matières premières: aux effets des grandes variations climatiques sur les récoltes s’ajoutent la spéculation sur les matières premières et la demande croissante des pays émergents en produits agricoles transformés… L’engagement très important des filières agricoles et agro-industrielles des pays industrialisés dans une société de consommation a conduit à un niveau de développement qui est aujourd’hui la référence imposée à l’ensemble des pays dans le contexte de l’OMC. Pour les pays en développement, la globalisation des échanges agricoles et des produits agro-industriels est enjeu social et économique majeur.

Un pays comme le Brésil a pris la mesure de ces enjeux en investissant fortement dans ce secteur et en se positionnant parmi les leaders mondiaux. Mais pour la très grande majorité des pays en développement, la mondialisation va de pair avec une forte pression sur les prix et des contraintes difficiles à anticiper au plan sanitaire. Ces pays affrontent plusieurs défis à la fois : assurer la sécurité alimentaire d’une population en forte croissance, structurer des filières de production et transformation, disposer des compétences et des moyens technologiques pour assurer la sécurité sanitaire des produits et des procédés à des niveaux d’exigence équivalents à ceux mis en place dans les pays industrialisés. Ce qui revient à obtenir, en quelques années, un niveau de capacité en productivité, compétitivité et fiabilité sanitaire, équivalent à celui atteint par les pays industrialisés en cinquante ans.

Or, comme le rappellent Marcel Mazoyer et Laurence Roudart, sur les 3 milliards de « paysans » et agriculteurs présents sur la planète, 1,3 milliard sont des actifs agricoles dont un tiers travaille à la main sans semence sélectionnée, sans engrais, sans animal de trait. Le nombre de tracteurs dans le monde est estimé à environ une trentaine de millions. Les pays les moins avancés ont une productivité qui peut être mille fois plus faible que celle des pays les plus productifs (les plus mécanisés). Seuls 10% de la production agricole mondiale circulent sur les marchés internationaux. Ces matières premières circulantes sont produites par les pays ayant les meilleures productivités et qui sont à l’origine des prix imposés à tous, fondés sur des rendements élevés et des coûts relativement faibles. On comprend donc bien la difficulté pour un paysan africain de vendre localement des produits sûrs et à un prix compétitif.

Le défi pour assurer la sécurité agricole et alimentaire mondiale consistera à obtenir en moyenne sur la planète, d’ici 2050, un quasi doublement de la production agricole. Cet effort de production pourrait nécessiter, dans certains pays faiblement développés, une multiplication par un facteur 5.

Certes, le modèle de massification de l’accès aux produits alimentaires tel qu’il s’est développé dans les pays industrialisés n’est pas nécessairement celui qui conviendra à l’ensemble des régions en développement. Mais quel que soit le modèle de développement qui s’imposera, les enjeux de sécurité sanitaire seront centraux. Ils constituent l’autre face du défi alimentaire.

Un des enjeux est évidemment la régulation des marchés des matières premières agricoles, afin d’éviter la double peine aux pays en développement. Au-delà, la pression sur les ressources agricoles et alimentaires ne peut être atténuée que s’ils se dotent d’une politique durable de développement agricole et agro-industriel. Cela suppose que les pays agro-industrialisés leur apportent leur expérience, par un transfert rapide d’expertise et d’innovation : l’enjeu est à la fois le développement de la consommation et la maîtrise de la sécurité sanitaire des produits.

Publié par ParisTechReview à http://www.paristechreview.com/2013/02/27/securite-sanitaire/

 

Très chères données personnelles

La Data Protection Regulation est un projet de règlement européen visant à améliorer la protection des données personnelles des Européens.

 Un restaurant chic de Strasbourg, proche du Parlement européen. En ce jour d’avril, une quinzaine de convives déjeunent dans un salon privé. Il y a là deux députés, quelques assistants parlementaires, des fonctionnaires de la Commission, et face à eux, quatre membres de l’US Chamber of Commerce, association défendant les intérêts des entreprises américaines partout dans le monde – dont un senior manager arrivé tout droit de Washington.

Au menu du jour, un dossier hautement stratégique et très polémique : le Data Protection Regulation (DPR), projet de règlement visant à améliorer la protection des données personnelles des Européens quand elles sont stockées dans des bases de données ou qu’elles circulent sur Internet. Face aux fonctionnaires de la Commission qui défendent stoïquement leur projet, les Américains mènent une attaque sans merci.

Le DPR a été proposé en janvier 2012 par la commissaire à la justice, Viviane Reding, qui souhaite remplacer les règles disparates de protection de données personnelles actuellement en vigueur dans les 27 pays de l’Union par une loi commune. Pour toutes les démarches, un guichet unique sera instauré : si un internaute allemand est en conflit avec une entreprise basée en Irlande, il ne sera plus obligé de s’adresser à l’agence irlandaise de protection des données. L’agence allemande prendra son affaire en charge.

UN TRÉSOR DE 315 MILLIARDS DE DOLLARS

La Commission souhaite aussi renforcer la règle du « consentement explicite » : avant de s’emparer des données d’un consommateur, il faudra lui en demander la permission. Autre contrainte : la collecte de données sera autorisée uniquement pour servir les « intérêts légitimes » de l’entreprise, dans le cadre de son activité principale. Les entreprises de plus de 250 salariés devront nommer un « délégué à la protection des données ».

Par ailleurs, le DPR réaffirme le « droit à l’oubli » : chacun pourra demander que ses données soient effacées – dans les limites du raisonnable, car sur Internet une suppression totale est souvent impossible. A noter que ce droit ne concernera sans doute pas les données publiées volontairement par un internaute sur un réseau social.

En cas de violation des nouvelles règles, l’amende sera sévère : jusqu’à 2 % du chiffre d’affaires mondial de la société. Le DPR s’appliquera à toute entreprise étrangère visant les consommateurs européens, même si elle n’a pas de filiale enEurope.

Depuis un an, le projet est examiné par le Parlement. S’il voit le jour (probablement en 2014, pour une mise en application en 2016), il affectera tous les secteurs d’activité, publics et privés. Cela dit, les plus directement visés sont les sites Internet et les réseaux sociaux offrant des services gratuits, car leur business model repose entièrement sur la collecte et l’exploitation des données de leurs utilisateurs, pour établir des profils individualisés et envoyer des publicités ciblées. De même, les sites marchands et les applications pour mobiles ont développé des stratégies commerciales sophistiquées, fondées sur des fichiers clients mis à jour en permanence. Selon une étude américaine, les données personnelles des Européens représentaient en 2012 un trésor de 315 milliards de dollars.

UNE FORME SOURNOISE DE PROTECTIONNISME COMMERCIAL

Or, partout en Europe, ce marché est largement dominé par des sociétés américaines – GoogleFacebookAmazonAppleMicrosofteBay –, plus, en coulisses, des centaines d’autres moins connues, qui forment une nébuleuse très dense. Les Américains estiment donc avoir leur mot à dire dans cette affaire. Officiellement, ils sont favorables à l’harmonisation des lois nationales, qui simplifiera les démarches administratives – même si, en réalité, les géants de l’Internet ont su jouer des différences entre Etats : Facebook et Google ont installé leurs filiales européennes en Irlande, où la fiscalité est avantageuse, et où l’agence nationale de protection des données est peu active.

Pour le reste, ils rejettent l’essentiel du projet. Selon eux, ces mesures bureaucratiques sont en fait un nouveau type de « barrières non tarifaires » – une forme sournoise de protectionnisme commercial. Elles viendront alourdir les coûts de fonctionnement des entreprises du secteur, ce qui nuira à l’innovation, à l’investissement et à l’emploi. En particulier, le consentement explicite et le droit à l’oubli sont jugés irréalistes et passéistes.

En fait, le déjeuner de Strasbourg a un objectif précis. Les membres de l’US Chamber sont venus présenter un rapport très alarmiste sur l’impact du DPR, s’il était voté en l’état : diminution des échanges transatlantiques, baisse du PIB européen, et même chute du revenu des ménages pouvant atteindre 3,9 %… Les fonctionnaires réfutent ces chiffres avec force et accusent les auteurs du rapport de partialité, mais les députés et les assistants ont pris note. Puis les Européens s’en vont peu à peu, laissant aux membres de l’US Chamber le soin de payerl’addition pour tout le monde.

VASTE OFFENSIVE AMÉRICAINE

Ces rencontres, très fréquentes à Strasbourg et à Bruxelles, font partie d’une vaste offensive. Les grandes sociétés américaines ont embauché leurs propres lobbyistes, dont beaucoup ont fait une première carrière au sein des institutions européennes. Le responsable de la stratégie politique de Google à Bruxelles, Antoine Aubert, travaillait auparavant pour la Commission européenne. De son côté, pour diriger son bureau de Bruxelles, Facebook a embauché l’Allemande Erika Mann, qui fut députée européenne sociale-démocrate pendant quinze ans. Elle fut aussi présidente de l’association Transatlantic Policy Network, dont la mission est de « promouvoir les liens les plus étroits possibles » entre les Etats-Unis et l’Europe.

Parallèlement, plusieurs lobbies de l’industrie high-tech américaine, comme Techamerica ou Association for Competitive Technologies (ACT), ont ouvert des bureaux à Bruxelles – en général à moins de cinq minutes de marche du Parlement européen. Pour coordonner leur action contre le DPR, une quinzaine d’associations, y compris l’American Chamber of Commerce (filiale locale de l’US Chamber), se sont regroupées dans une nouvelle entité, baptisée Industry Coalition for Data Protection. Son principal porte-parole est l’Interactive AdvertisingBureau, regroupant des professionnels de la publicité en ligne américains et européens.

Le dispositif est renforcé par des instituts de recherche comme l’European Privacy Association, animés par des intellectuels européens, mais financés en partie par des entreprises américaines. Dans leurs publications, leurs conférences et leurs interventions médiatiques, ils relaient le message de leurs sponsors, avec plus ou moins de nuances.

QUATRE MILLE AMENDEMENTS AU DPR DÉPOSÉS

noter aussi l’action des grands cabinets d’avocats d’affaires anglo-saxons. Ainsi, la firme Hunton ESPERLUETTE Williams emploie à Bruxelles une dizaine d’avocats, dont cinq travaillent à plein temps sur des dossiers de protection des données.

Pour aller plus vite, les lobbyistes ont repris à leur compte une pratique classique : ils rédigent des propositions d’amendements prêts à l’emploi, qu’ils envoient aux eurodéputés jugés les plus favorables à leur cause – notamment les conservateurs et les eurosceptiques.

Le résultat est spectaculaire : en quelques mois, plus de quatre mille amendements au DPR ont été déposés, dont beaucoup sont directement inspirés de textes envoyés par les lobbyistes. L’ampleur du système a été mise au jour par le journaliste allemand Richard Gutjahr.

Avec l’aide d’un ami hacker, il a créé un moteur de recherche accessible sur Internet, baptisé « Lobbyplag » : « Grâce à l’aide discrète de quelques assistants parlementaires, nous nous sommes procuré des propositions d’amendements envoyées par les lobbies. Puis, nous les comparons, mot par mot, avec les textes des amendements déposés par les députés. » On découvre, par exemple, qu’un député britannique conservateur a déposé 55 amendements, dont 14 sont en fait des textes envoyés par Amazon, eBay et l’American Chamber of Commerce. Ils visent à supprimer les protections pour les données stockées sous pseudonyme, à baisser le montant des amendes en cas de violation du règlement, à faciliter le transfert de fichiers vers des sous-traitants, ou à limiter les droits des citoyens contre les profilages abusifs.

Cette pratique inquiète le député vert allemand Jan Philipp Albrecht, rapporteur du projet au sein de la commission des libertés civiles, chargée d’amender et devoter le texte :  »Plus de 80 % des propositions d’amendements arrivant de l’extérieur proviennent des entreprises, et principalement des géants de la Silicon Valley. » Il estime que, à la longue, le travail des lobbies s’avère efficace : « Ils sont si nombreux et si actifs que le même message semble arriver de partout à la fois. Cela crée une ambiance diffuse, qui influe sur l’état d’esprit général. » Selon lui, de nombreux députés du groupe PPE (centre droit), qui étaient favorables au DPR en 2012, sont devenus hésitants, ou hostiles. Les députés verts et socialistes, qui souhaitent au contraire un durcissement du projet, se retrouvent sur la défensive.

La commission des libertés civiles souhaite voter le texte amendé avant l’été, mais aucune date n’a été fixée. Commencera alors une nouvelle étape : les négociations entre le Parlement et le Conseil européen, pour arriver à un texte final. Certains Etats membres, notamment le Royaume-Uni et l’Irlande, souvent proches des positions américaines, semblent décidés à intervenir pour réduire les contraintes imposées aux entreprises.

Par ailleurs, le dossier du transfert transatlantique de données va être à nouveau abordé lors les négociations sur le nouvel accord général de libre-échange entre l’Union européenne et le gouvernement des Etats-Unis qui vont s’ouvrir cet été. Déjà, les lobbyistes du secteur privé se préparent pour ce nouveau combat.

Yves Eudes

Article à la Une du Monde.fr à http://www.lemonde.fr/a-la-une/article/2013/06/02/tres-cheres-donnees-personnelles_3422477_3208.html

 

12345

croquefeuille |
Succès Marketing |
Entre Organisation et Equit... |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | 3D-Margot-Marina-Franck
| On s'amuse...
| cuisinebio