Des supercalculateurs qui aident la médecine

Les supercalculateurs, grâce aux réseaux de neurones et une capacité à croiser les données du big data avec l’analyse d’un cas particulier, sont susceptibles de produire des diagnostics fiables quand les médecins se demandent de quoi souffre leur patient. Ce qui en fait des supercalculateurs, hypercompétents !

Tel est le cas des robots Watson, Ellie ou encore Marlow. Une plongée dans le monde de l’hyper compétence avec Science et Vie…

Source : https://www.science-et-vie.com/questions-reponses/l-intelligence-artificielle-depasse-t-elle-la-notre-10719

Les robots ne se bornent pas à exécuter des tâches mécaniques comme l’assemblage des machines. Désormais, ils s’emparent de véritables métiers intellectuels, où ils excellent grâce à leur puissance de calcul et à leur mémoire ultrapuissantes.

Ils ont désormais des professions. Chroniqueur, peintre, consultant, assistant, psychologue, médecin… Et des noms, aussi : Ellie, Watson, Marlow… Certains ont une voix, d’autres une apparence, un humour ou un caractère qui ressemble au nôtre. Mais la comparaison s’arrête là.

Car ils possèdent aussi des connaissances colossales, une capacité de calcul démesurée et hyper rapide, sans oublier un sens de l’observation hors du commun. « Ils », ce sont les robots de dernière génération. Mais ne vous attendez pas à de super androïdes tentant d’imiter nos comportements : ici, la ressemblance, purement virtuelle, passe par des avatars visibles sur un écran.

C’est que l’important est ailleurs : dans le secret d’algorithmes et de fonctions mathématiques rendant possibles des tâches non plus mécaniques et répétitives, mais d’expertise. En un mot : des tâches « intellectuelles ». Et c’est peu dire qu’en la matière, ils sont doués : non seulement ces machines surclassent dans certains domaines les aptitudes humaines, mais elles commencent à investir des champs professionnels aussi exigeants que la médecine, la finance, l’industrie de pointe et même l’art.

Des supercalculateurs hypercompétents

Lire la suite ici

L’intelligence artificielle

Donner un sens à l’Intelligence Artificielle

Le rapport du mathématicien et député de l’Essonne Cédric Villani intitulé « Donner un sens à l’intelligence artificielle » a été rendu public le mercredi 28 mars 2018. Il préconise notamment les actions à mener en France et en Europe pour le développement d’une IA citoyenne et éthique, capable de rivaliser avec les grandes puissances de la planète.

Intelligence Artificielle notions de base

L’intelligence artificielle est déjà coextensive à tous les niveaux de la réalité. Aucune technologie d’avenir ne peut plus se penser en la mettant entre parenthèses. L’enjeu est donc simple et global : il s’agit de mettre l’Intelligence Artificielle au service de l’homme. Ce qui implique de la penser, et non plus seulement de la développer et de l’appliquer.

Intelligence artificielle et transports

On parle beaucoup de voitures autonomes. L’intelligence artificielle s’applique également aux transports en commun (par exemple les rames de métro ou des bus sans chauffeur). Elle s’appliquera bientôt aux trains de marchandise, aux avions et aux drônes. Une recherche en pleine expansion.

Renaud Roubaudi de POA interroge Guillaume Trehard, référant en charge du pôle « conduite autonome » du groupe Akka Technologie, à propos des différentes étapes de l’évolution de la conduite autonome dans les dix prochaines années. L’arrivée programmée de l’intelligence artificielle dans nos voitures a des conséquences en cascade sur nos modes de transport et nos modes de vie dont nous ne mesurons pas encore pleinement les retombées, positives ou négatives.

La Mairie de Paris lance les navettes Easyline afin de relier les gares de Lyon et d’Austerlitz distantes d’une centaine de mètres. Ces nouveaux bus gratuits, électriques et sans conducteurs peuvent accueillir 12 personnes et fait le trajet en 1min30 le long du Pont Charles de Gaulle.

Intelligence Artificielle pour la santé

France 3 Grand Est : L’intelligence artificielle a de multiples possibilités d’utilisation et demeure un enjeu d’avenir. Elle progresse beaucoup, et vite, et pourrait apporter beaucoup à la santé, témoin une nouvelle application intuitive au service du patient.

Cedric Villani | TEDxSaclay – L’intelligence artificielle est l’affaire de tout le monde. Elle représente un enjeu très important dans notre société. Comment faire en sorte qu’elle profite à tous ?Cedric Villani nous explique comment par exemple l’intelligence artificielle permet une analyse de données médicales plus poussée qui peut aider à ce que les maladies soient mieux dépistées

Le Cyborg : poème

Le Cyborg

 

La relation intime entre corps et machine

Est une hybridation que la science imagine,

 

C’est une mutation, qui, de notre futur,

Y détruira de l’âme un principe sacré,

Bannira le divin par son côté obscur,

Ouvrira du possible une autre destinée,

Repoussant de la mort, une fin programmée,

Générant du Cyborg celle qu’il va créer.

 

Lina Chelli
Vendredi 9 mars 2018

L’Intelligence Artificielle au service de la Défense

L’IA au service de la défense et de la sécurité

Le domaine de la défense et de la sécurité s’intéresse depuis longtemps aux techniques d’intelligence artificielle sous leurs nombreuses formes : interfaces humain-machine, traitement de l’information, robotique, etc.

Dans les prochaines années, l’utilisation de l’intelligence artificielle sera une nécessité pour assurer les missions de sécurité, conserver l’ascendant face à nos adversaires potentiels, tenir notre rang par rapport aux alliés (aussi bien au sein de coalitions que dans une perspective d’export) et maintenir un niveau de qualité élevé concernant les services dispensés à l’ensemble des personnels des ministères.

Une des différences réside notamment dans le lieu qui représente le théâtre du conflit : extérieur (opérations militaires), intérieur (sécurité intérieure) voire même virtuel (cyberdéfense).

Le domaine est très mature et extrêmement riche en cas d’usage et données à haute valeur ajoutée pour des usages d’IA : imagerie (notamment satellitaire, drones, hyperspectrale), vidéos, signaux électromagnétiques (radars), systèmes de combat, renseignement, cybersécurité, robotique (aéronautique, marine, terrestre), données de maintenance, etc.

La nécessité d’une IA régalienne et ses spécificités

L’IA crée avant tout une opportunité pour améliorer le quotidien de l’ensemble des métiers et des citoyens. Contrairement à certaines idées reçues, les premières applications identifiées relèvent de sujets du quotidien. Parmi les pistes, on peut évoquer : le filtrage des appels d’urgence arrivant aux 17-18-112 pour désaturer, mieux prioriser et cibler ; la gestion de crise par la gestion des interventions et de l’information ; la réduction de l’accidentologie et du nombre de morts sur les routes. La réalisation de ces applications relève de l’intérêt général et en améliorant la qualité du service public et de son exercice.

La cyberdéfense et la cybersécurité évoluent dans ce même contexte de tsunami informationnel et de complexification constante des menaces. Si les moyens d’analyse automatiques permettent jusqu’à présent de détecter des attaques déjà connues, la mise en oeuvre de techniques d’IA permet aujourd’hui d’imaginer des capacités de détecter, parer voire répondre à des attaques qui étaient jusqu’à présent inconnues.

L’IA est également un moyen de protection pour nos forces et pour ceux qui assurent leurs missions au quotidien. on peut citer à titre d’illustration la reconnaissance et la cartographie 3D de bâtiments en zone ennemie, ou encore le déminage (terrestre et maritime notamment) qui pourrait être effectué par des robots. Ces deux exemples montrent que dans certaines applications, il est possible d’utiliser des techniques d’IA pour préserver des êtres humains et limiter le niveau de risque auquel ils sont exposés. Dans le contexte du combat, l’IA permet d’outiller l’échelon de commandement pour faciliter l’accès à l’information et assister ainsi sa prise de décision, C’est enfin un facteur déterminant dans la performance et l’augmentation des systèmes de combat, notamment pour des fonctions support telles que la logistique et de la maintenance.

Quel que soit l’usage, les missions régaliennes nécessitent de prendre en compte certains aspects spécifiques pouvant être contraignants techniquement, notamment dans la conception des systèmes impliquant de l’IA :

  • la sécurité et la protection des systèmes nécessitent d’être particulièrement renforcée et adaptée au contexte d’utilisation. En effet, les conséquences d’attaques en cas de vulnérabilité peuvent être importantes ;
  • la gestion des informations (classifiées à de multiples niveaux, éventuel¬lement judiciaire), la protection du secret et du droit d’en connaître en particulier lorsqu’elles impliquent de grands volumes de données ;
  •  l’interopérabilité avec d’autres systèmes, en particulier dans le cas de coalitions ou d’échanges internationaux ;
  • la répartition géographique des opérations et la multiplicité des modes de déploiements, de l’échelon central en métropole jusqu’aux théâtres d’opérations extérieures, y compris embarqués comme par exemple dans des bateaux ou des systèmes aéronautiques.
  • le besoin de fiabilité (entre humains, entre humains et machines…) et de contrôle accru dans un contexte où l’IA peut trouver sa place dans des applications critique (pilotage par exemple).
  •  enfin, sur ces technologies qui évoluent à grande vitesse, il est impératif pour les techniciens et experts de se tenir au courant par la participation régulière à des forums, conférences, colloques internationaux, bien sûr dans le respect de la confidentialité qui s’impose aux actions les plus sensibles.

L’importance de la dimension opérationnelle a été soulignée pour faciliter l’expérimentation et les développements au plus près des utilisateurs finaux. En effet, celle-ci est cruciale pour faciliter les démarches d’expérimentation, de conception itérative et de déploiement de produits. Pour y parvenir, il faudra permettre des expérimentations opérationnelles sur le terrain ou dans les centres d’essais pour donner vie à un living lab dans l’État.

Donner un sens à l’Intelligence Artificielle

Le rapport du mathématicien et député de l’Essonne Cédric Villani intitulé « Donner un sens à l’intelligence artificielle » a été rendu public le mercredi 28 mars 2018.

L’utilisation des données au cœur de la politique économique

Le rapport de Cédric Villani met en exergue la nécessité du partage des données à l’échelle européenne, ce qui impliquerait notamment une réforme du droit d’auteur pour les rendre plus accessibles à l’analyse. Il souhaite inciter les acteurs économiques à partager leurs données. Des données européennes qui seraient également mieux protégées vis-à-vis de puissances tiers.

La mission souhaite amener les acteurs français du domaine, aussi bien privés que publics, à collaborer et à se fédérer. La qualité des applications pourrait faire l’objet d’une labellisation.

Quatre secteurs de l’économie de l’Intelligence Artificielle ont été jugés comme prioritaires : Mobilité et transports, santé, environnement, défense.

L’intelligence Artificielle pourrait être développée au travers de « plateformes sectorielles de mutualisation » et de « bacs à sable d’innovation ».

Réformer la recherche française

Le rapport Villani propose la création d’instituts 3IA. L’Intelligence Artificielle conjugue en effet plusieurs axes de recherche. Les instituts 3IA seront donc des établissements interdisciplinaires, répartis dans toute la France et coordonnés au niveau national. Le but est de fédérer les acteurs de la recherche et accroître l’offre de formation. L’IA devant traiter des masses de données très importantes, un nouveau supercalculateur verra le jour. Un cloud privé accessible sur forfait au niveau européen complétera ce dispositif. Et pour éviter la fuite des cerveaux, Cédric Villani, préconise de doubler les salaires en début de carrière.

En effet un maître de conférences débutant (bac + 8) et exigence d’excellence, perçoit en France moins de 1800 euros nets par mois et environ 3200€ enfin de carrière après plusieurs dizaines d’années de bons et loyaux services ! En famille, les premières années, il a du mal à boucler ses fins de mois. Des compétences qu’un chercheur peut valoriser à un salaire bien plus important à l’étranger.

Impact sur le travail et l’emploi : Anticiper !

L’intelligence Artificielle va profondément transformer le marché du travail. Le rapport préconise une formation tout au long de la vie pour développer notamment les compétences créatives qui deviennent de plus en plus importantes.

Il convient en effet d’anticiper les effets et préparer la transformation inévitable en favorisant le dialogue social. Les personnes exerçant les métiers les moins qualifiés ou du moins les plus sujets à automatisation, doivent être formées tout au long de leur vie.  

Pour une IA plus écologique

Le rapport préconise la création d’une plateforme mesurant l’impact environnemental des équipements numériques intelligents. Cédric Villani affirme : « D’ici 2040, les besoins en espace de stockage mondial, corrélés au développement du numérique et de l’IA, risquent d’excéder la production disponible globale de silicium ». La solution ? Une politique d’innovation « de rupture » dans le domaine des semi-conducteurs afin de les rendre moins gourmands en silicium. Un label permettrait de valoriser les solutions les plus écologiques.

Le rapport préconise de rendre accessibles d’ici fin 2019 dans le cadre de l’Open Data les données touchant à l’agriculture, la météo, l’énergie, les transports, la biodiversité, le climat, la gestion des déchets, le cadastre ou encore la performance énergétique. Certaines données privées pourraient également entrer dans le cadre de cette ouverture.

Définir une éthique

L’IA est fondée sur le Deep Learning. Ce sont des algorithmes complexes d’apprentissage automatique qui conduit la machine à prendre des décisions de façon autonome. Il est éventuellement préoccupant d’avoir une boite noire qui agit à notre place, sans savoir ce qu’il y a dedans ! Il faut donc pouvoir expliquer et détailler les algorithmes d’apprentissage automatique, d’une part et contrôler l’utilisation de certaines données d’autre part.

Il peut s’agir par exemple des données personnelles ou encore génétiques d’un grand nombre de personnes. Le rapport Villani propose la création d’un corps d’experts qui auront capacité à saisir la justice et l’administration. Une garantie indispensable pour le respect de nos libertés et la création d’une IA éthique et citoyenne. Le rapport préconise en outre la création d’un comité d’éthique des technologies numériques, dont les décisions et avis feraient jurisprudence.

C’est pour toutes ces raisons également il faudra enseigner l’éthique aux jeunes ingénieurs. Elle est quasiment absente des enseignements aujourd’hui !

Pour une IA inclusive et diverse

Pourquoi inclusive ? Parce que le constat est clair, l’Intelligence Artificielle, est aujourd’hui beaucoup plus une affaire d’hommes que de femmes. Non seulement cela pose un problème en termes d’égalité, mais également en termes de vision du monde. En effet, l’IA doit conduire à terme à proposer une certaine modélisation du monde. Un monde d’hommes ? A terme, la présence de biais cognitifs essentiellement masculins dans les algorithmes pourrait poser problème.

D’où plusieurs initiatives :

  1. Une politique incitative pour la mixité. Cédric Villani propose un seuil de 40% d’étudiantes dans les filières d’enseignement du numérique d’ici 2025
  2. Des financements pour soutenir la diversité dans l’IA.
  3. Une base de données nationale pour « objectiver les inégalités entre les femmes et les hommes ». Elle permettrait la mise en œuvre d’actions en faveur de la diversité dans les entreprises du numérique.

Intelligence Artificielle notions de base

L’intelligence artificielle consiste en la mise en œuvre d’une série de techniques, de processus automatiques et technologies permettant d’imiter voire de dépasser l’intelligence humaine.

L’intelligence artificielle est déjà coextensive à tous les niveaux de la réalité. Aucune technologie d’avenir ne peut plus se penser en la mettant entre parenthèses. L’enjeu est donc simple et global : il s’agit de mettre l’Intelligence Artificielle au service de l’homme. Ce qui implique de la penser, et non plus seulement de la développer et de l’appliquer.

Dans le domaine de l’Intelligence artificielle on est déjà demain et les chercheurs travaillent déjà sur après-demain.

En voici de façon non exhaustive, quelques applications :

  • création de réseaux de neurones artificiels
  • traitement de gigantesques bases de données (big data)
  • Appliquée aux neurosciences, l’intelligence artificielle permet de pallier une déficience cognitive ou neuronale par l’action de la machine (exemple : les neurocapteurs qui permettent d’interpréter la pensée d’une personne incapable de parler, ou encore la capacité à activer par la pensée une prothèse de main ou de pied)
  • Il existe également de nombreuses applications de l’Intelligence Artificielle dans le domaine de la robotique. Des développements d’avenir concernent le transport du futur (individuel et collectif). Certaines applications existent déjà, comme les véhicules sans chauffeur.
  • Le secteur de la Défense est également un domaine où le développement de l’Intelligence Artificielle devient progressivement central.
  • Les objets connectés

Et dans le domaine du langage :

  • synthèse vocale
  • reconnaissance vocale
  • compréhension automatique du langage
  • réponse automatique à des questions
  • Traduction automatique
  • Deep learning

Métiers du Big Data

Les emplois du secteur du Big Data, sont désormais très demandés. Dans une économie mondialisée, la donnée est le nerf de la guerre. Les entreprises ont besoin de spécialistes qui analysent les données pour définir et affiner leur stratégie de développement. Et ceci s’applique à tous les secteurs de l’économie. Aujourd’hui la demande est supérieure à l’offre et peu de spécialistes sont encore formés par rapport au besoin réel des entreprises.

Nous vous faisons découvrir ici quelques uns des métiers de la donnée qui feront le monde de demain.

Chief Data Officer ou Directeur des données

Avec le déploiement d’internet, des puces RFID et des objets connectés, de nombreuses entreprises se sont trouvées dans l’obligation d’exploiter un grand nombre de données sans forcément l’avoir anticipé. Or ces données sont complexes à exploiter. Il faut les identifier, les collecter, les extraire et les rendre accessibles et surtout compréhensibles et utilisables pour enrichir la stratégie de l’entreprise.

Initialement, ces tâches étaient dévolues aux Directeurs des Systèmes d’Information. Cependant, face à la quantité très importantes de données traitées par les entreprises, certains acteurs économiques ont décidé de créer ce poste spécifique pour jeter un pont entre les services marketing qui ont besoin de données actualisées en temps réel, et les services informatiques. Tel est le travail du Chief Data Officer (CDO).

Tous les détails et formations nécessaires pour exercer le métier de Chief Data Officer sont disponibles sous ce lien : https://www.lebigdata.fr/emplois-big-data/chief-data-officer

Architecte Big Data

Le rôle de l’Architecte Big Data est de collecter les données issues de l’internet, de l’intranet, des objets connectées pour les organiser afin de les rendre exploitables. Il s’agit d’un métier essentiellement technique. L’architecte Big Data, de formation informatique, travaille en étroite relation avec le Chief Data Officer.

Toutes les informations sur ce métier sous ce lien : https://www.lebigdata.fr/emplois-big-data/architecte-big-data

Business Intelligence Manager

La Business Intelligence est un métier issu de l’informatique décisionnelle. Il s’agit le plus souvent d’analyser les tendances d’un marché, notamment au travers de l’exploitation d’outils de veille ainsi que d’outils statistiques. Le Business Intelligence Manager produit des rapports qui sont exploitables directement par la direction de l’entreprise, afin de leur permettre de prendre des décisions.

Le Business Intelligence Manager est donc un expert formé à l’Intelligence économique, l’informatique et l’exploitation des données issues de la statistique.

Toutes les informations utiles sur ce métier peuvent être trouvées sous ce lien : https://www.lebigdata.fr/emplois-big-data/business-intelligence-manager

Ouvrages sur le transhumanisme

Homo Deus

Le très célèbre : Homo Deus, une brève histoire de l’avenir, par Yuval Noah Harrari – Albin Michel – septembre 2017, qui, avec un regard critique sur le transhumanisme et ce qu’il nomme la «religion» de l’humanisme, dresse le scénario possible d’une humanité augmentée.

Quel sera le devenir de notre humanité quand les GAFA nous connaîtront mieux que nous-mêmes ? Comment les religions utiliseront-elles la manipulation du génome ? Vers quelle société nous dirigerons-nous quand des ordinateurs nous remplaceront avantageusement au travail ?

Homo Deus nous fait entrevoir les contours du monde qui nous attend lorsque à nos croyances collectives en des dieux tels que l’argent, l’égalité et la liberté, nous ajouterons de nouvelles technologies démiurgiques. Qu’adviendra-t-il lorsque nous seront privés de notre pouvoir de décision par des ordinateurs plus sages et plus puissants que nous ? Serions-nous en train de nous forger une nouvelle destinée collective ?

Transhumanisme

Transhumanisme, à la limite des valeurs humanistes, est un ouvrage collectif dirigé par Charles Suzanne et publié chez Mémogrames – Les éditions de la mémoire en mars 2015 

Dans une voie médiane entre technophobie et technophilie, le groupe de réflexion Darwin a décidé d’étendre ses réflexions au sujet du transhumanisme et l’amélioration de l’humain.

Transhumanisme, nous livre une analyse sociétale qui a pour but la remise en question des valeurs et fondements philosophiques des Lumières à l’aune des développements de l’Intelligence Artificielle.

Les robots font-ils l’amour ?

Laurent Alexandre et Jean-Michel Besnier – Les robots font-ils l’amour ? Le transhumanisme en 12 questions – Dunod – octobre 2016.

Ce livre pose quelques questions impertinentes qu’il convient néanmoins de se poser pour comprendre le monde dans lequel nous projette l’augmentation de l’humain : La technique peut-elle et doit-elle améliorer l’espèce humaine ? Est-il désirable de vivre des siècles ?

L’intelligence artificielle va-t-elle tuer l’homme ? Aujourd’hui vous pouvez déjà faire séquencer votre ADN en une journée pour, peut-être un jour, le réparer, tandis qu’Internet bouleverse nos modes d’apprentissage et nos relations sociales.

Demain, l’intelligence artificielle aura-t-elle encore besoin de l’intelligence humaine et ferons-nous l’amour avec des robots ?

Serons-nous tous immortels ?

Plongée au coeur du transhumanisme par l’un de ses artisans les plus militants et travaillant sur les programmes les plus secrets.

Le rêve de l’immortalité serait-il à notre portée. Les avancées actuelles et à venir dans le domaine des NBIC pourraient-elles allonger de façon étonnante notre espérance de vie ?

Ray Kurzweil et Terry Grossman explorent les perspectives que nous offre la science.

Intelligence artificielle : la Chine serait bientôt leader

D’ici 2025, la Chine aura dépassé les Etats-Unis dans le développement de l’Intelligence Artificielle. Avec les velléités d’hégémonisme qu’on lui connaît la Chine de Xi Jinping pourrait rapidement imposer au monde des applications médicales et robotiques « made in China ».

Au-delà de l’aspect commercial que représente le marché de l’Intelligence Artificielle au niveau mondial, et des sommes colossales qui sont en jeu, une hégémonie de la Chine dans le domaine de l’IA poserait bien d’autres problèmes. La sécurité des données serait mise en cause, ce qui est déjà le cas avec les produits issus de la firme Huawei et le scandale des micros infiltrés qui est en train de voir le jour.

D’autre part la question de l’éthique poserait problème dans la mesure où nos données médicales et génétiques seraient mises à disposition d’une super puissance souvent mise en cause par les instances internationales dans ses manquements au respect des Droits de l’Homme.

Quant à la question militaire : faut-il laisser la Chine développer des applications militaires fondées sur l’Intelligence Artificielle, sans que l’Europe ne dispose de développements suffisants qui garantissent la paix ? Il est évident que non.   C’est pour ces différentes raisons que l’Union Européenne a pris la décision d’investir 20 milliards d’euros par an durant les dix années à venir, dans le développement d’un Intelligence Artificielle « fabriquée en Europe ». Une décision à tout le moins indispensable…

IA Quand la Chine aura pris le pouvoir…

par Louis Naugès, Le Monde Informatique 14/11/2018

L’intelligence Artificielle est, après le cloud computing, la prochaine rupture dans le domaine des technologies du Numérique. En 2018, les Etats-Unis sont encore les leaders de l’IA ; en 2025, la Chine aura pris la première place de l’IA dans le monde entier. Pourquoi ? Comment ? Eléments de réponse dans cette chronique.

Pour lire l’article en entier, suivre ce lien 

 

L’intelligence artificielle, un instrument de puissance pour la Chine

INA Global Numérique – Par Charles Thibout – 20 décembre 2018

La Chine est entrée dans la course à l’intelligence artificielle. Le niveau de ses investissements, la qualité de son écosystème d’innovation et le volontarisme de ses dirigeants rendent crédibles les ambitions du pays à prendre, tôt ou tard, le leadership dans ce domaine. Avec quelles conséquences sur le plan international ? L’an dernier, Vladimir Poutine déclarait que celui qui serait leader en intelligence artificielle deviendrait le maître du monde. En Chine, la sentence du président russe n’est pas passée inaperçue.

Pour lire l’article complet, suivre ce lien…

Intelligence Artificielle : La Chine compte révolutionner 17 industries

Paru dans Le Big Data – 20 novembre 2018

D’ici 2030, la Chine compte devenir le leader mondial de l’intelligence artificielle avec une industrie nationale de l’IA estimée à 150 milliards de dollars. Pour ce faire, le gouvernement estime que la Chine devra rattraper les Etats-Unis dès 2020.

Pour lire l’article complet, suivre ce lien…

 

Intelligence Artificielle fabriquée en Europe

20 Millards par an pour le déploiement d’une IA « fabriquée en Europe »

Dans un communiqué de presse publié le 7 décembre 2018, et dont voici les éléments essentiels, la Commission Européenne et les états membres, indiquent vouloir collaborer pour stimuler l’intelligence Artificielle “fabriquée en Europe”.

Fin 2018, la Commission a présenté un plan coordonné élaboré avec les États membres pour favoriser le développement et l’utilisation de l’IA en Europe.

Ce plan propose des actions communes pour une coopération plus étroite et plus efficace entre les États membres, la Norvège, la Suisse et la Commission européenne dans quatre domaines d’action essentiels:

  • accroître les investissements,
  • rendre davantage de données disponibles,
  • cultiver les talents et garantir la confiance.
  • Une coordination plus étroite est indispensable pour faire de l’Europe un acteur régional de premier plan en vue du développement et du déploiement d’une IA éthique, sûre et de pointe.

Andrus Ansip, vice-président pour le marché unique numérique , s’est félicité de cette étape importante. L’objectif est de dégager au moins 20 milliards d’euros d’investissements privés et publics d’ici à la fin de 2020, notamment pour la mise en commun de données médicales pour améliorer notamment le traitement du cancer et les diagnostics.

Mariya Gabriel, commissaire pour l’économie et la société numériques,  a souligné que l’IA transforme le monde. Son deployment est indispensable en Europe dans un cadre qui permet de préserver la confiance et dans le respect des valeurs éthiques.

La Commission donne priorité aux domaines de la santé, du transport, de la mobilité, de la sécurité et de l’énergie.

20 milliards d’euros d’investissements publics et privés seront consacrés à la recherche et l’innovation dans le domaine de l’IA d’ici à la fin de 2020. Pendant toute la décennie qui va suivre, 20 milliards d’euros seront investis tous les ans sur le développement de l’Intelligence Artificielle dans les pays de l’Union.

Une IA éthique et digne de confiance

La Commission Européenne met l’accent sur le développement d’une Intelligence Artificielle éthique et digne de confiance.

Dans son communiqué de presse du 7 décembre 2018, la Commission Européenne precise :

“L’IA soulève de nouvelles questions éthiques, telles que la partialité dans la prise de décisions. Pour susciter la confiance, qui est nécessaire pour que les sociétés acceptent et utilisent l’IA, le plan coordonné doit permettre de développer une technologie respectueuse des droits fondamentaux et des règles éthiques. Un groupe européen d’experts, composé de représentants des milieux universitaires, des entreprises et de la société civile, travaille actuellement sur des lignes directrices éthiques pour le développement et l’utilisation de l’IA. Une première version sera publiée d’ici à la fin de 2018 et les experts présenteront leur version finale à la Commission en mars 2019 au terme d’une consultation élargie dans le cadre de l’Alliance européenne pour l’IA. L’ambition est, ensuite, de porter l’approche éthique de l’Europe sur la scène mondiale. La Commission va ouvrir la coopération à l’ensemble des pays tiers désireux de partager des valeurs communes”.

Contexte

L’Union Européenne travaillera sur un plan coordonné sur l’Intelligence Artificielle qui lui permettra de rivaliser avec la concurrence internationale pour le développement d’une IA “fabriquée en Europe”. 

Les États membres et le Parlement européen doivent se mettre d’accord le plus rapidement possible sur les propositions législatives concernant la cyber-sécurité, les données ouvertes et le prochain budget de l’UE, qui prévoit un financement pour la recherche et l’innovation, ainsi que le déploiement des technologies d’IA.

Moteurs de recherche : information ou Connaissance ?

La Pertinence en recherche d’information

La pertinence est ce qui, dans le système de création de sens, permet la cohérence et la transmission d’un message. L’information pertinente est celle qui permet l’identification des processus, réponses, décisions correspondant à la quête dans laquelle se trouve l’utilisateur d’un système de recherche d’information.

Grâce à l’émergence de nouveaux moyens de communication, de plus en plus d’acteurs de la société de l’information se sont mis à écrire. Dans cet espace d’échange interactif la dynamique des réseaux s’est rapidement trouvée confrontée à une surabondance d’écrits, produits de plus dans des formats différents.

Dans le contexte du web 2.0, la recherche d’information semble constituer un paradigme trop restreint et qui n’éclaire qu’une partie d’un processus cognitif ou encore ne répond qu’à une partie des questions que se posent les utilisateurs à propos de l’abondance d’information à laquelle ils sont confrontés, ainsi qu’aux savoirs qu’ils sont amenés à créer, partager, faire évoluer.

Dans ce contexte, la nécessité de trouver l’information pertinente, est liée à l’existence d’une profusion mondiale d’écrits soumis au traitement informatique de la langue. Les outils issus de l’Intelligence Artificielle et du Traitement Informatique de la langue, qui ont fait l’objet de recherches bien antérieurement à ce phénomène, ont permis d’obtenir, en recherche d’information, des résultats qui donnent la possibilité aujourd’hui à chaque utilisateur de se positionner face à cette profusion d’écrits.

De plus, il convient de tenir compte non seulement des usages de la recherche d’information, mais également de l’utilisateur lui-même et de se donner les moyens d’identifier son besoin en information, notamment en cherchant à identifier les communautés d’usagers à laquelle il appartient.

Avec les réseaux sociaux, on entre de plain pied dans l’univers de la gestion collaborative de la recherche d’information et de son partage.

En tout état de cause on est face à l’émergence d’un partage du sens, si ce n’est entre experts, à tout le moins entre amateurs éclairés. Le succès rencontré par les blogs, les fils de news et les moteurs de navigation sociale tend à prouver que le facteur de confiance se détourne progressivement des grands fournisseurs de services, pour se recentrer sur l’individu, jugé à la fois plus responsable et plus pertinent.

La couleur ou connotation donnée à la recherche d’information dépend, en effet de la communauté dont émane la recherche et l’information peut être catégorisée selon les usages. Il est important lorsqu’on parle d’information pertinente, de définir la notion de pertinence par rapport à un usage d’une part et à une communauté de pratiques ou d’intérêt, d’autre part.

A titre d’exemple, au sein d’un réseau de chercheurs, l’échange d’information et de connaissance se déploie au sein d’un triangle « espace d’application /usages / technologies », propre à l’univers de la recherche. Il  est, de ce fait, d’une nature fort différente de l’information qui peut être recherchée dans les entreprises de services, par exemple. Il est donc possible, pour chacun de ces espaces, de mieux qualifier ce qu’est la recherche d’information ainsi que le partage des connaissances, à condition de réunir de manière méthodique des éléments très divers qui contribuent, ensemble, à créer du sens.

Information et Connaissance : que nous dit Platon ?

On ne peut évoquer la notion de Connaissance, sans évoquer Platon. La théorie des Formes ou des Idées (en grec, eidos) est centrale à la philosophie de Platon. Selon Platon, la notion de connaissance a pour spécificité d’une part d’être à la fois certaine et infaillible et d’autre part de renvoyer à des objets réels et de nature immuable. Dans sa théorie des formes, Platon introduit la notion d’objet mathématique. Ces objets peuvent être vus comme des formes non sensibles mais dont on peut néanmoins expliquer la nature.

Dans la République, Platon[1] expose sa théorie de la connaissance et tout particulièrement au travers de l’image de la ligne divisée et du mythe (ou allégorie) de la caverne (Livres VI et VII). Dans la ligne divisée, Platon établit une distinction entre opinion et connaissance. Les hypothèses, qu’elles soient formulées par la science ou le résultat d’une simple observation du monde sensible, Platon ne les considère que comme des opinions, qui peuvent selon le cas être ou n’être pas bien fondées. Cependant aucune opinion ne peut être considérée comme connaissance authentique, celle-ci procédant d’un niveau plus élevé qui fait entrer en action la raison plutôt que l’expérience sensible. Les connaissances intellectuelles qui sont le résultat de l’exercice de la raison, Platon considère qu’elles renvoient à  des objets constituant l’univers permanent, aux Formes ou substances éternelles qui constituent le monde réel.

[1]                      Platon – La République Livres VI et VII – FOLIO PLUS PHILOS N°78 – Editions Gallimard- ISBN : 2070338371 – EAN : 9782070338375

Une théorie de la complexité

Une fois posée la distinction entre opinion et connaissance il convient d’établir un lien entre information et connaissance. Celle-ci passe cependant par l’élaboration d’une théorie de la complexité. Edgar Morin, dans son ouvrage, « La Méthode », établit clairement ce lien en même temps qu’une distinction, en développant les notions d’activité computante et activité cogitante : « Comme toute connaissance cérébrale, la connaissance humaine organise en représentations (perceptions, remémorations) les informations qu’elle reçoit et les données dont elle dispose. Mais à la différence de toute autre connaissance cérébrale (animale) la connaissance humaine associe récursivement activité computante et activité cogitante (pensante), et elle produit corrélativement des représentations, discours, idées, mythes, théories, elle dispose de la pensée, activité dialogique de conception, et de la conscience, activité réflexive de l’esprit sur lui-même et sur ses activités ; la pensée et la conscience utilisent nécessairement, l’une et l’autre, les dispositifs linguistiques-logiques, et ceux-ci sont à la fois cérébraux, spirituels et culturels ». 

Est-ce l’usage qui crée le sens ?

Wittgenstein[1]  avance quant à lui que « la signification c’est l’usage ». Cependant quelle valeur donner à une signification qui ne ferait pas consensus, autrement dit, qui ne serait pas vecteur de communication entre les hommes ? « On aimerait dire ici : tout ce qui va me sembler correct sera correct. Et cela signifie seulement que nous ne pouvons parler au sujet de ce qui est “correct”. ”». Cette pensée aborde la dimension symbolique du langage. Tentons de boucler maintenant la quadrature du cercle en avançant la seconde proposition d’une assertion qui terminera sa vie en forme de sophisme voué aux gémonies de la pensée circulaire. Si on part du principe que « la signification c’est l’usage » alors l’usage des mots est-il le langage ?

Peut-être, si on en croit Steiner[2] qui affirme que « Le langage ne peut jouer pleinement que dans un domaine spécial et restreint de la réalité » ; mais qui s’empresse immédiatement d’ajouter : « le reste, et sans doute la plus grande part, est silence », ce à quoi Wittgenstein[3] lui  répond en écho « C’est dans la lumière et non dans l’obscurité que nous plongeons au-delà du langage ».

On peut certainement s’en tenir au postulat technicien de la fonction du langage, dans une recherche qui s’inscrit dans un environnement technologique, ancré dans l’ici et maintenant. Peut-on cependant s’autoriser à formuler une définition mécaniste du sens ? Et peut-on, inversement, aborder la thématique du sens sans aller jusqu’à des considérations ontologiques qui porteraient le débat bien au-delà des attendus de cette recherche ? La question reste ouverte… et le cœur de l’argumentation serait peut-être alors, plus animé par une volonté de partage, que de recherche d’une vérité qui revêt une expression différente pour chaque être et réside dans le secret de leur humanité.  Le juste milieu, dans le cadre de cette recherche,  se situe peut-être dans une définition, voire une reformulation de la notion d’information.

[1] Ludwig Wittgenstein, 1953/2004, Recherches philosophiques, traduit de l’allemand par Françoise Dastur, Maurice Elie, Jean-Luc Gautero, Dominique Janicaud, Elizabeth Rigal, Paris, Gallimard.

[2] Georges Steiner,  Langage et silence (Language and Silence: Essays 1956-1968). Paris, Seuil, 1969.

[3] Cité par Steiner

Et le web 2.0 ?

Durant les années 90, l’utilisation de plus en plus importante de ce qu’on appelait alors les Nouvelles Technologies de l’Information et de la Communication a dynamisé la production écrite ainsi que la recherche d’information textuelle. Par ailleurs, dans le monde du travail, l’informatique permettait d’industrialiser les échanges de données ainsi que leur production.

Avec la généralisation des usages de l’internet, les technologies de traitement de données se sont orientées progressivement vers le traitement de l’information. Ce nouveau media de dissémination de l’information a amené les spécialistes à établir le constat suivant : l’information n’est pas la connaissance. La nourriture qui fait vivre et exister les organisations économiques ou institutionnelles est la connaissance, et nous évoluons collectivement dans une économie et une société de la connaissance qui se nourrit et met en perspective la valeur produite à partir de l’utilisation de connaissances.

Il est certes nécessaire de distinguer information et connaissance mais indispensable de ne pas les séparer non plus. Il ne faut pas perdre de vue que chaque acteur de la société de l’information assume à la fois le rôle de producteur et de chercheur d’information et de connaissance.

C’est ce qui fait que l’utilisateur des technologies de l’information et de la communication ne se trouve jamais face à un vide cognitif, ni dans un processus ponctuel de recherche d’une information isolée de son contexte. On observe de ce fait, une authentique rupture par rapport à la société des medias de masse et par rapport aux visions qu’on avait antérieurement de l’organisation. C’est en quelque sorte l’interactivité qui fait l’organisation et non l’organisation qui va décider de façon rationnelle qui a besoin de tel ou tel type d’interactivité ou espace d’échange, pour être et demeurer efficace.

C’est en fait à partir d’usages  massifs que s’imposent tout à la fois des technologies et des usages technologiques dominants. Et de ce fait, la véritable structuration de l’information s’établit au sein d’un processus de démultiplication et de socialisation des usages de la recherche d’information. Avec les phénomènes liés au web 2.0 comme les wikis ou encore la production de tags d’auto-référencement, comme c’est le cas sur Facebook, on se trouve face à des systèmes qui s’auto-alimentent et s’auto-organisent.

Recherche d’information : Sens et Knowledge Management

La question du sens est centrale en recherche d’information. C’est ce qui permet à un moteur de recherche d’être pertinent et donc utilisé par les internautes. En entreprise, utiliser un moteur efficace est le nerf de la guerre en matière d’efficacité. Ma thèse de doctorat est consacrée à l’évaluation des moteurs de recherche multilingues, à partir du sens. J’ai en effet mis au point un protocole fondé sur un réseau sémantique et qui, en reclassant les résultats de plusieurs outils de recherche, par ordre de pertinence, arrive à faire en quelque sorte, Google… mieux que Google ! 

L’article ci-dessous est un court extrait de mon travail de doctorat. Il pose les contours de la recherche du sens en recherche d’information, ici, à partir de la notion de Knowledge Management. 

Vous pouvez télécharger l’article en cliquant sur ce lien ou attendre quelques instants qu’il s’affiche ci-dessous… 

La question du sens en recherche d information

La folksonomie

Etymologiquement la folksonomie est la contraction de deux termes anglais « folk » (les gens, les usagers) et « taxonomie », système d’organisation des connaissances fondé sur des catégories. Née des usages spontanés du web 2.0, la folksonomie, autrement appelée en anglais « social bookmarking » consiste donc à noter et classifier les sites en fonction de leur usage et du service rendu. La folksonomie permet de sortir de la boucle infernale de la surinformation ou infobésité. 

L’article ci-dessous, que j’ai écrit en 2006 pour la lettre Recherche et Référencement (www.abondance.com) analyse les usages de la folksonomie qui était un concept montant au moment où est né le web 2.0

Vous pouvez soit télécharger le fichier pdf de l’article sous ce lien, ou attendre quelques instants qu’il s’affiche ci-dessous

folksonomie Marianne Dabbadie

Page vidéo Transhumanisme et homme augmenté

Le transhumanisme est un mouvement culturel et intellectuel international prônant l’usage des sciences et des techniques afin d’améliorer les caractéristiques physiques et mentales des êtres humains. Le transhumanisme considère certains aspects de la condition humaine tels que le handicap, la souffrance, la maladie, le vieillissement ou la mort subie comme inutiles et indésirables. Dans cette optique, les penseurs transhumanistes comptent sur les biotechnologies et sur d’autres techniques émergentes. Les dangers que présentent de telles évolutions sont énormément préoccupants.

Interview exclusive par Ecomnews, de Christophe Habas, neuroradiologue et Grand Maître du Grand Orient de France de 2016 à 2018 venu à Montpellier donner une conférence sur le transhumanisme, à l’invitation de l’association « Les amis de Georges Frêche ». 

Le philosophe Bernard Stiegler émet de sérieux doutes quant à la philosophie transhumaniste récemment promue par les multinationales californiennes. Il nous livre en quatre points ce qu’il estime être les questions importantes que l’engouement tend à voiler. http://bits.arte.tv

Bernard Stiegler, à propos de la philosophie transhumaniste sur Arte, 2ème partie

Magazine Bits sur Arte, Bernard Stiegler et le transhumanisme, troisième partie

Bernard Stiegler sur Arte, magazine Bits, regard du philosophe sur le transhumanisme, quatrième et dernière partie. 

L’homme « augmenté » fait rêver… L’homme, débarrassé de ses faiblesses et lorgnant vers l’immortalité, est pour demain. A grand renfort de nanotechnologies, génétique et biotechnologies. Jacques Testart, notre invité est biologiste. Il est le père scientifique du premier bébé-éprouvette français. C’était en 1982. Aujourd’hui, il signe le livre « Au péril de l’humain – Les promesses suicidaires des transhumanistes » aux Éditions du Seuil. Un ouvrage de réflexions coécrit avec la journaliste Agnès Rousseaux, qui met en garde contre les transhumanistes et leurs Graal peu recommandable. Et si aux côtés de l’homme « augmenté » apparaissait le sous-homme ? Une partition peu souhaitable pour l’Humanité… Il nous fait part de ses reflexions sur le plateau du « 64 minutes le monde en français » sur TV5MONDE.

Futuremag sur Arte : Après un grave accident de montagne, l’ingénieur américain Hugh Herr s’est vu amputé des deux jambes. Depuis ce jour, il n’a qu’une seule idée en tête : rendre leur mobilité aux personnes handicapées. Fondateur du Centre de Bionique Extrême et professeur de biophysique, il travaille à la création de prothèses personnalisées munies de capteurs permettant d’adapter le mouvement à l’environnement du patient. Impressionnant !

Dans Polonium, sur Paris Première, Natacha Polony reçoit Luc Ferry pour revenir avec lui sur son dernier livre sur le transhumanisme. Allons-nous pouvoir vivre plus longtemps et en meilleure santé grâce aux progrès technologique et génétique ?

Université de Nantes : L’émergence des nouvelles technologies et les progrès réalisés dans de nombreux domaines (numérique, robotique, médecine…) ont révolutionné en quelques années notre vie quotidienne et le regard sur l’évolution de l’humanité. Aujourd’hui, des scientifiques développent des imprimantes 3D capables de construire tissus et organes humains, des informaticiens créent des langages de programmation qui modifient le comportement des cellules vivantes, des intelligences artificielles se mesurent avec succès avec des champions d’échecs ou de Go et des exosquelettes peuvent être contrôlés par la pensée. Les limites humaines, comme celles de la machine, semblent pouvoir être repoussées de jour en jour… Alors, à quoi ressembleront les êtres humains dans quelques dizaines d’années ? Jusqu’où nos limites physiques et intellectuelles seront-elles poussées ? Quelle place donnerons-nous aux machines ? Quelles questions éthiques se posent à nous et quel type de société voulons-nous construire ?

Segolène Royal au crible de l’analyse sémantique

Ségolène Royal : 2007 de la défaite des urnes à la victoire de l’espérance

Au lendemain de l’élection présidentielle de 2007, nous avons passé au crible de l’analyse linguistique le Skyblog de Ségolène Royal. Espoir en la vie, démocratie participative, goût de la politique, amour, même ! ou quand la défaite se transforme en victoire conceptuelle. Résultats du test linguistique

Vous pouvez télécharger ici le pdf de l’article, ou attendre qu’il s’affiche ci-dessous

L’article en pdf va bientôt s’afficher. Veuillez patienter… 

Segolene Royal 2007 analyse semantique

Sérendipité

Construction de connaissance par sérendipité

La sérendipité est une qualité propre à l’humain. C’est l’intelligence des situations et des indices qui nous permettent de nous faire une idée sur un sujet, de construire une connaissance. 

Aujourd’hui, la recherche d’information par sérendipité, est une recherche qui met en œuvre la capacité d’association et de projection de l’être humain. La sérendipité, c’est la construction de connaissance dans un monde en mouvement.
Tout a commencé par un conte… 

La sérendipité ou « serendipity » est un mot qui a vu le jour en 1754 sous la plume du philosophe anglais Sir Horatio Walpole, dans son roman « The three princes of Serendib » (les trois princes de Ceylan). Ces princes jouissaient de cet insigne privilège de la providence qui consistait à « tomber » systématiquement par hasard sur la bonne solution, quelque fâcheuse que fut la situation dans laquelle ils se trouvaient. Par ce terme, Walpole désignait la faculté de certaines personnes à trouver la bonne information par hasard sans réellement l’avoir recherchée. Le grand dictionnaire du Québec définit la sérendipité comme la « Rencontre, au cours d’une observation empirique, de données ou de résultats théoriquement inattendus, aberrants et capitaux ». Si l’histoire des princes de Serendib est pour une large part oubliée, le mot, lui, est resté. Avec les sciences cognitives et l’avènement du web il a même connu une seconde vie.

L’article qui suit formalise la construction de connaissance par sérendipité, pour la rendre applicable à l’Intelligence Artificielle.

Vous pouvez télécharger ici le pdf de l’article, ou attendre qu’il s’affiche ci-dessous

Sérendipité et construction de connaissance pour l’Intelligence Artificielle

© M. Dabbadie - reproduction interdite sans autorisation

Sérendipité et construction de connaissance

Marianne Dabbadie

Mon souhait pour l’avenir de notre planète

Je suis Marianne Dabbadie, Dr en Sciences de l’Information et de la Communication. J’ai un parcours hybride entre recherche universitaire, recherche industrielle et missions conseil dans les domaines du Traitement Automatique des Langues Naturelles, des réseaux sémantiques, le Management et la Gestion de Projets.
Je connais bien les problématiques liées aux GAFAM et à l’Intelligence Artificielle et m’y intéresse depuis très longtemps, au-delà de mon domaine de recherche et d’expertise spécifique qui est le Traitement Automatique des Langues Naturelles et le web sémantique.

L’importance de l’éthique

Je suis convaincue, en outre, qu’il est indispensable de prendre en main le développement de l’Intelligence Artificielle pour la France et en Europe avec un focus important sur les questions d’éthique, notamment en ce qui concerne la médecine, la Défense Nationale, la protection des données et des libertés individuelles. Ce développement de l’éthique doit pouvoir aller de pair avec la recherche et le développement industriel, pour faire de la France le leader d’une IA citoyenne et industrielle dans un monde en plein développement. Ce qui n’est pas envisageable, c’est de freiner les progrès scientifiques sans adaptation législative ou de régulation.

Penser l’Intelligence Artificielle

Travailler sur l’Intelligence Artificielle c’est accorder une importante particulière à l’aspect pluridisciplinaire d’un champ de recherche alliant Nanotechnologies, Biotechnologies, Informatique et sciences Cognitives et qui met en jeu le devenir de l’humanité. Ce qu’il est important de comprendre c’est que l’intelligence artificielle est coextensive à tous les niveaux de la réalité. Elle implique à la fois la recherche scientifique au niveau mondial, la recherche industrielle et les applications qui en sont faites. Aucune technologie d’avenir ne peut plus se penser en la mettant entre parenthèses. L’enjeu est donc simple et global : il s’agit de mettre l’Intelligence Artificielle au service de l’homme. Ce qui implique de la penser, et non plus seulement de la développer et de l’appliquer.

Campagne d’évaluation CESTA

Entre 2003 et 2007 j’ai travaillé sur la campagne CESTA, Campagne d’évaluation des systèmes de traduction automatique. CESTA a été la première campagne d’évaluation européenne consacrée à la traduction automatique et financée dans le cadre de l’action Technolangue. CESTA, ainsi que l’idée d’en faire une campagne Européenne, est née de ma passion pour la traduction automatique et de mes travaux antérieurs à ce propos. J’ai monté le dossier pour l’Université de Lille 3 et nous avons constitué une équipe pluridisciplinaire qui a porté le projet pendant presque quatre ans. L’article ci-dessous récapitule les travaux d’étape de CESTA en 2004 et la méthodologie d’évaluation mise en place pour évaluer la pertinence des traductions. 

 

Publications scientifiques et professionnelles

PUBLICATIONS SCIENTIFIQUES

 Dabbadie Marianne, Mustafa El Hadi Widad, Timimi Ismail : “Setting a methodology for machine translation evaluation”  MT Summit VIII, Santiago de Compostela, Spain, 18-22 September 2001

Dabbadie Marianne, Mustafa El Hadi Widad, & Timimi Ismail: Terminological enrichment for non-interactive MT evaluation” LREC-2002: Third International Conference on Language Resources and Evaluation. Proceedings, Las Palmas de Gran Canaria, Spain, 27 May – 2 June 2002; pp.1878-1884 – 2002

Dabbadie Marianne, Hartley Anthony, King Margaret, Miller Keith J., Mustafa El Hadi Widad, Popescu-Belis Andrei, Reeder Florence, & Vanni Michelle: A hands-on study of the reliability and coherence of evaluation metrics. LREC-2002: Third International Conference on Language Resources and Evaluation. Workshop: Machine translation evaluation: human evaluators meet automated metrics, Las Palmas Canary Islands, 27 May 2002; pp.8-16. 2002

Dabbadie M., Mustafa El Hadi, W. Timimi, I., (2004). CESART : Campagne d’Evaluation des Systèmes d’Acquisition de Ressources Terminologiques et Traduction Automatique, in Actes du Colloque LREC’ 2004, pp. 515-518.

Dabbadie, M., Mustafa El Hadi, W., Fraysse, F. (2004) “Coaching applications: a new concept for usage testing on information systems”: Testing usage on a corporate information system with K-Now”, In « Knowledge organization and the global society, Proceedings of the 8th Inter. ISKO Conf. IA McIlwaine (eds), Ergon, 13-16 July, Advances in knowledge organization, vol. 9, London, pp. 331-336.

Dabbadie M., Mustafa El Hadi, W. Timimi, I., CESTA : Campagne d’Evaluation des Systèmes de Traduction Automatique. In Proceedings of the II International Workshop on Language Resources for Translation Work, Research and Training, COLING’4, Geneva, 2004.   

Dabbadie M., Mustafa El Hadi, W. Timimi, I., (2004), “CESTA, The first European Machine Translation Evaluation Campaign”. In Multilingual n° 65 volume 15, issue 5, p. 10-11.

  1. HAMON, A. POPESCU-BELIS., K. CHOUKRI, M. DABBADIE, A. HARTLEY, W. MUSTAFA EL HADI, M. RAJMAN, I. TIMIMI, (2006). “CESTA: First Conclusions of the Technolanguage MT Evaluation Campaign”. In: Proceedings of the 5th international Conference on Language Resources and Evaluation (LREC 2006), Genoa, Italy, May 2006, p.179-184

Dabbadie M., Blancherie JM, Mustafa El Hadi, W. (2006) – Alexandria, a multilingual semantic network for Knowledge Management purposes – in Knowledge organization in a Global Learning Society – proceedings of the 9th ISKO Conference 2006, Vienna

PUBLICATIONS SUPPORTS PROFESSIONNELS EXPERTS

VEILLE MAGAZINE

Depuis Septembre 2004 :

Rubrique Search et usages de la toile dans Veille Magazine

Veille Magazine n°70 Décembre 2003

  • « Osez la linguistique, ça marche ! » – Interview de Stéphane Chaudiron – 2 pages

Veille Magazine n°73 avril 2004

Dossier Industries de la langue – 14 pages

  • Industries de la langue : « vous êtes plutôt TIL ou TAL » ?
  • Memodata : une PME au coeur des réseaux linguistiques
  • Interview de Joseph Mariani : « Nous souhaitons que des applications industrielles de plus en plus importantes voient le jour »
  • Big Brother – Nom de code : multimodal

Veille Magazine n°75 juin 2004

  • ELRA : rencontre avec Khalid Choukri (2 pages)

Veille Magazine n°76 juillet 2004 

  • Stéphane Chaudiron : vers la convergence des technologies (2 pages)

Veille Magazine n°77 septembre 2004

  • Ujiko : un moteur de recherche orienté utilisateur (2 pages)

Veille Magazine n°78 octobre 2004

  • Dossier évaluation – les outils logiciels : pourquoi et comment les évaluer ? (10 pages)
    • L’utilisabilité : « ça sert à quoi » ?
    • L’ergonomie cognitive : à la recherche d’une simplicité perdue
    • Le casse tête de l’ISO : des directives un peu complexes
    • L’évaluation, un facteur d’innovation : interview de Stéphane Chaudiron
    • Vers une communication simple et ludique : Interview de René Forgues sous directeur des réseaux de communication au MINEFI
  • Test moteur de recherche : Nous avons testé Windex Server (2 pages)

Veille Magazine n° 79 novembre 2004

  • Nous avons testé Global Finder de Knowings (2 pages)

Veille Magazine n°81 février 2005

  • Intuition, un logiciel qui porte bien son nom (3 pages)

Veille Magazine n°83 avril/mai 2005

  • Alexandria : un dictionnaire multilingue pour site web (2 pages)

Veille Magazine n°85 juillet/août 2005

  • Exalead, une des meilleures navigations du moment (3 pages)

Veille Magazine n°89 décembre 2005/janvier 2006

  • Sommet Mondial de la Société de l’Information : Open access et fracture numérique : la liberté à quel prix ? (3 pages)

Veille Magazine n°90 février 2006

  • Le Search Engine Marketing : une nouvelle façon de rechercher l’information (2 pages)
  • Interview de Olivier Andrieu : « Le terrain à défricher est encore immense » (2 pages)

Veille Magazine n°92 avril 2006

Viadeo, un réseau social relationnel (3 pages)

Veille Magazine n°95 août/septembre 2006

Anticiper les usages et évaluer les outils de veille in vivo (3 pages)

Veille Magazine n°96 octobre 2006

Mozbot, le moteur de recherche qui mise sur les services à l’utilisateur (3 pages)

De  nombreuses autres publications dans Veille Magazine en 2008 et 2009

LETTRE RECHERCHE ET REFERENCEMENT (Abondance : www.abondance.com)  

Depuis Janvier 2006 :

Rubrique Recherche d’information et nouveaux usages de la toile

Janvier 2006 :    

Crible : Exalead, Dir.com, Misterbot et Mirago (3 pages)

Février 2006 :    

La folksonomie, c’est quoi ? (5 pages)

Mars 2006 :       

Ces moteurs qui clusterisent… (5 pages)

Avril 2006 :         

La cartographie d’information : analyse de Kartoo et Mapstan (4 pages)

Mai 2006 :          

Les moteurs de recherche d’actualités : Google et Yahoo ! News,  focus sur Wikio (5 pages)

Juin 2006 :         

  • Recherche d’information : une cartographie des nouveaux usages de la toile (2 pages)

Juillet 2006 :       

  • Les swickis : un nouveau concept de moteur vertical (3 pages)

 Septembre 2006 :

  • Interview de Christian Fluhr : « Nous voulons associer la reconnaissance de formes à l’image et à la video » (5 pages)
  • Les moteurs de recherche d’images : benchmark Flickr-Google- Yahoo !-Altavista (4 pages)

Octobre 2006 :  

  • Interview de Jean-Marc Blancherie : L’ère de l’intranet 2.0 vient de s’ouvrir (7 pages)

Novembre 2006:

  • Interview de Yves Simon (Fast) : « Les portails d’entreprise doivent prendre conscience de l’importance de la recherche » (6 pages)

Décembre 2006 :

  • Mind Manager Research Accelerator : metamoteur de recherche spécialisé dans le Mind Mapping (6 pages)

Janvier 2007 :

  • Stéphane Chaudiron (Ministère de la Recherche) : « les tendances de la recherche d’information vont vers le Web sémantique, l’indexation collective et les technologies linguistiques » (5 pages)

Février 2007 :

  • Quaero, Pharos et Theseus : un point sur trois projets européens (3 pages)

Mars 2007 :

  • Dossier : Pharos : 13 partenaires et 9 pays pour un projet de recherche européen (9 pages)

Avril 2007

  • Recherche d’information : quelques trucs et astuces (4 pages)

Mai 2007 :

  • Des laboratoires pour les grands de la recherche d’information (4 pages)

Juin 2007 :

  • Moteurs de recherche audio : Rechercher de la musique n’a jamais été aussi facile… (3 pages)

Juillet 2007 :

  • Nouveaux outils de recherche : Zetool et Widepress (5 pages)
  • Web sémantique et recherche d’information : où en est-on ? (3 pages)

Novembre 2007

  • Jean-François Gervais (INA) : « Le Web 3.0 sera sémantique » (5 pages)

Enseignements et conférences

ENSEIGNEMENT ET CONFERENCES Marianne DABBADIE

ATER Charles de Gaulle Lille 3 – UFR IDIST

Mastère Sciences de l’Information et du Document :

Gestion de projets :

Approche méthodologique et bases du management de projets

Objectifs :

  • A la fin du module, les étudiants sont capables de:
  • Maîtriser le vocabulaire lié au management de projet,
  • Définir les concepts de base du management de projet,
  • Intégrer le projet dans une démarche générale de résolution de problème,
  • Présenter, définir et critiquer les principaux outils de la gestion de projet,
  • Effectuer des comparaisons économiques de différents projets techniques,
  • Dans un cas concret donné, choisir les outils et la méthode à mettre en oeuvre afin d’assurer le bon déroulement de toutes les phases d’un projet,
  • Ont une approche théorique et pratique de la qualité projet et des normes ISO série 9000 applicables à ces processus

Déroulement :

  • La première partie du cours consiste en une approche théorique de la gestion de projet.
  • La deuxième partie, plus orientée pratique, comprend un jeu de simulation durant lequel les étudiants peuvent prendre le rôle du chef de projet ainsi que la présentation par les étudiants d’un ensemble d’études de cas. La modélisation des projets se fait à l’aide d’une méthodologie qui utilise les cartes mentales pour la modélisation des idées, le brainstorming et la dynamique de groupe.

 

M2 Sciences de l’Information et du Document :

Veille, Intelligence Economique et outils d’accès à l’information :

  • Méthodologie d’Intelligence Economique conseillée par l’ADIT aux PME
  • Le cycle de veille en sept étapes
  • Panorama des outils d’accès à l’information et approche pratique
  • Traitement Automatique des Langues Naturelles
  • Dossiers réalisés sur des thèmes tels que : la veille et l’Intelligence Economique, l’accès à l’information, apprentissage des langues assisté par ordinateur, agents intelligents

 

M2 Sciences de l’Information et du Document : Analyse de données

Bases théoriques de :

  • L’infométrie
  • La bibliométrie
  • Les étudiants apprennent les fondements théoriques de ces disciplines et ont une approche pratique des outils, notamment les logiciels d’enquêtes.

 

Conférence à l’université de Caen (DESS –GREYC)

Partage de l’information en réseau et recherche d’information multilingue :

  • Cas des applications fondées sur un réseau sémantique

 

Ecole Nationale Supérieure des Arts et Métiers (ENSAM) – Séminaire ATHENS

Séminaire d’étudiants Européens de grandes écoles sur le Knowledge Management – trois jours d’enseignement et animation scientifique sur le thème de l’ingénierie des connaissances – Traduction et interprétation pour les conférenciers monolingues (26 heures)

Ecole Supérieure d’Ingénieurs de Marseille (ESIM)

Cycle de conférences : « Modèles basés sur le sens pour la modélisation des connaissances » :

  • Panorama du domaine (entreprises, associations, formations, métiers, applications, programmes ministériels)
  • Réseaux sémantiques (architecture, modélisation et applications)
  • Partage de l’information en réseau
  • Knowledge Management et réseaux de sens
  • Méthodologies de Veille et d’Intelligence Economique

 

Cycle de conférences– Université de Lille III – IDIST (DESS SID)

  • Partage de l’information en réseau et recherche d’information multilingue
  • Débouchés professionnels des métiers de la Documentation
  • Systèmes de veille et leur emploi dans le contexte de l’entreprise

 

Cycle de conférences à l’université de Caen (DESS RADI – GREYC)

Gestion des ressources terminologiques multilingues et Assurance Qualité  

Cycle de conférences– Université de Lille III – IDIST (DESS SID)

  • Partage de l’information en réseau et recherche d’information multilingue
  • Débouchés professionnels des métiers de la Documentation
  • Systèmes de veille et leur emploi dans le contexte de l’entreprise

 

Cycle de conférences à l’université de Caen (DESS RADI – GREYC)

Gestion des ressources et processus Qualité

Humanité et Intelligence Artificielle Questions Philosophiques

Entre humanité et technosciences : questions philosophiques

Cet article, bien qu’il rejoigne pleinement mes convictions et mes interrogations, est plus un compte rendu qu’une production personnelle. Je l’ai écrit après avoir assisté à une conférence du philosophe Jean-Michel Besnier, consacrée au transhumanisme. J’y ai mêlé ses réflexions et les miennes et les partage aujourd’hui avec vous.

Quels idéaux, quelles valeurs, quelles croyances, sont-ils possibles quand on décide de mettre toute son énergie à vouloir toujours plus de technologies ?
C’est le contexte qui est aujourd’hui le nôtre. Nous sommes de plus en plus enclins à réclamer des techniques et des technologies. Ceci pose la question de notre avenir dans la mesure où on le subordonne de plus en plus aux réalisations techniques que les laboratoires et les organismes de recherche nous autorisent.
Quel avenir préparons-nous à l’humain ? Cette question n’a jamais été plus urgente. Et la science fiction n’est plus seule à la poser…
Depuis les technosciences, ce mixte de science et de technologie, nous pensons sérieusement les uns et les autres, que nous sommes en train de préparer une humanité nouvelle qui devra s’élargir à d’autres êtres que les hommes et les femmes que nous sommes. Nous sommes disposés à dire qu’il y aura sans doute parmi nous dans un avenir proche, des êtres qui résulteront de clonages… Il y aura peut être des mutants, des cyborgs, des robots androïdes. Et dans un avenir bien plus proche qu’on ne l’imagine. Bref, nous serons sans doute entourés d’êtres inédits qui nous obligeront à nous demander ce qui fait encore la spécificité de l’humain, ce qui garantit sa dignité. Donc que sera l’être humain dans un contexte où nous saurons le fabriquer et non plus le recevoir par hasard du fait de l’évolution naturelle, du fait de la naissance ?
Le jour où nous saurons réellement fabriquer l’humain, qu’est-ce que ça produira dans nos esprits et nos manières de penser ?

Vous vous souvenez sans doute de la question qui fût posée à Œdipe ? Quel est l’être qui marche tantôt à deux pattes, tantôt à trois, tantôt à quatre… ? et qui, contrairement à la loi générale, est le plus faible quand il a le plus de pattes ? Quand on pose cette question on oublie toujours cet ajout. En répondant l’homme, Œdipe s’est débarrassé du Sphinx tout en s’assurant le respect des habitants de Thèbes. Hé bien cette question qui appelait comme réponse « l’homme », est probablement ce qui a inauguré la tradition culturelle occidentale. Et sans aller dans le détail, Kant subordonnait tout son programme de philosophie à cette question : « qu’est-ce que l’homme » ? Il considérait qu’il y avait au fond trois grandes questions : Que puis-je savoir ? Que dois-je faire ? Que m’est-il permis d’espérer ? et une quatrième question devait chapeauter les trois premières : « qu’est-ce que l’homme » ?
La première question « Que puis-je savoir » correspondait à la métaphysique, la deuxième question « Que dois-je faire » correspondait à la morale et la troisième question : « que m’est-il permis d’espérer » correspondait à la religion et la quatrième « qu’est-ce que l’homme » à l’anthropologie. Et selon Kant on devait pouvoir ramener l’ensemble des questions que les humains se posent à l’anthropologie. C’était La question des questions. Et cette question des Questions, on peut facilement s’en convaincre aujourd’hui, elle reste notre question fondamentale… et peut-être même plus que jamais. Elle est encore irrésolue ; de l’aveu même des scientifiques, de ceux qui travaillent à ce qu’on appelle la convergence des disciplines. Ce sont des scientifiques qui aujourd’hui s’efforcent d’unifier le champ du savoir. Les physiciens cherchent à réunir les clés d’explication des relations que chacun des secteurs du savoir peuvent avoir entre eux. Et d’une façon générale, cette question « qu’est-ce que l’homme » agite énormément tous ceux qui mobilisent leurs compétences pour nous doter d’une maîtrise accrue sur le vivant.

Hé bien ces scientifiques, de leur aveu même, sont parfois pris de vertige, devant la puissance de déréalisation du réel, qui résulte de nos possibilités Techno – logiques.

Je vais l’expliquer de façon un peu plus claire. Au fond, comment savoir ce qu’est l’humain, à l’heure où les nano technologies, rendent possible la dématérialisation et la désidentification des objets ? Vous savez les nanotechnologies, c’est cette discipline qui travaille à l’échelle du un milliardième de mètre. Inutile de vous dire qu’on ne voit rien à cette échelle. Quand on touche l’un des microscopes hyper sophistiqués qui nous révèlent des aspérités, des atômes. On essaie de modifier la configuration des atômes pour produire de nouveaux objets, de nouveaux matériaux. Nous y reviendrons.

Mais comment savoir ce qu’est l’humain quand les nanotechnologies déploient leurs possibilités ? Comment savoir ce qu’est l’humain quand les biotechnologies et la biologie de synthèse nous permettent de transgresser les limites naturelles et d’hybrider par exemple, le vivant et l’électronique ? La biologie de synthèse est engagée sur ce travail là.
Comment savoir ce qu’est l’humain, quand les sciences cognitives conduisent à définir l’intelligence sans plus avoir besoin de recourir à la conscience ? Vous savez les sciences cognitives c’est cette nébuleuse de disciplines qui cherchent à répondre à la question « qu’est-ce c’est d’être intelligent » ? A quoi reconnaît-on l’intelligence ? Peut-on simuler de l’intelligence ? Y a-t-il de l’intelligence chez les animaux ? Des machines peuvent-elles être intelligentes ?
De ce fait les sciences cognitives dissocient de plus en plus l’intelligence de la conscience. On peut être intelligent sans avoir de conscience. On peut prêter de l’intelligence à une amibe… donc sans avoir besoin de recourir à la conscience, dont on sait de moins en moins ce que c’est. Comment définir l’humain dans cette situation là ?
Comment savoir ce qu’est l’humain quand les technologies de l’information font triompher le flux des communications, ce flux qui dissout de plus en plus les substances, les identités etc. C’est une vraie question. Et j’ai énuméré là quatre disciplines : nanotechnologies, biotechnologies, biologie de synthèse, sciences cognitives et technologies de l’information.

Ces disciplines sont impliquées aujourd’hui dans un fameux programme américain, très connu sous l’acronyme suivant : NBIC – Nanotechnologies, Biotechnologies Sciences de l’Information et Sciences Cognitives.

Ce programme américain résume à sa façon toutes les perplexités qui sont les nôtres aujourd’hui concernant la définition de l’homme. Et ce programme de 400 pages qu’on trouve sur internet est précédé d’un manifeste qui sert de vade-mecum à la démarche transhumaniste. Toutes les politiques de recherche des pays développés, s’inspirent de ce manifeste et de ce rapport NBIC. Ce rapport s’ouvre donc sur un manifeste qui déclare ave une certaine emphase, que nous sommes à la veille d’une renaissance. La renaissance est la maître mot de ce manifeste ; qui prétend par conséquent nous déployer l’avenir, en déclinant toutes les réalisations qui sont promises aujourd’hui par les différentes sciences et techniques qui convergent dans le projet NBIC.

En science-fiction on a aujourd’hui toutes les raisons du monde de vouloir mettre en situation les complexités qui sont nourries par les sciences contemporaines. Je crois que la science-fiction on le constate tous, a changé complètement de statut. Aujourd’hui elle est rentrée dans notre quotidien. Elle sert quelquefois de prétexte à la formulation de projets de recherche des grands laboratoires. Il y a une sollicitation des auteurs de SF pour permettre aux scientifiques dûement diplomés d’extrapoler les scenarios de recherche. Plus que jamais la SF nous pose la question : « qui est ENCORE l’humain AUJOURD’HUI » ?

Est-ce le mutant baptisé « replicant » dans le film Blade Runner ? C’est l’histoire d’un mutant qui découvre l’univers des émotions que les humains ont largement perdu. Qui est le mutant : le replicant qui découvre l’espace émotionnel ou les humains qui en ont perdu le sens ? Et l’enfant robot de « Intelligence Artificielle » de Steven Spielberg, ce petit robot qui réclame l’amour d’une mère. Est-ce qu’il n’est pas plus humain que ceux qui dans le même film, détruisent les androïdes ? De même pour Avatar, ce film de James Cameron où ces êtres qui défendent leur planète Pandora, sont finalement bien plus conformes que les humains à l’idée qu’on peut se faire de ce qu’est être humain.

La leçon de ces films de science fiction c’est qu’ils génèrent un imaginaire très présent. La leçon est toujours très naïve dans ces films, mais elle a le mérite d’être constante. Finalement le message c’est : avant d’être dans les attributs morpho-biologiques, 

l’humanité consiste peut-être en des qualités de cœur, qui dépassent la possession de ces attributs. On prépare à projeter sur des êtres qui ne sont pas des humains, des sentiments proprement humains qui nous désertent peut-être nous, humains.

A cet égard il faudrait peut-être être prêts à accueillir dans l’humanité ces êtres que fabriqueront nos technologies. Et peut être faudrait-il les imiter s’ils nous semblent le mériter. C’est un peu l’esprit d’une série suédoise que vous avez peut-être vue : « we are humans ». Cette série pose la question : « où sont les vrais humains » dans un monde qui s’est laissé coloniser par les robots ? Mais ce que révèle la science fiction c’est que la question « qu’est-ce qu’être humain » ? a pris de nos jours un relief particulier et même une tournure dramatique, qui suggère ceci : on se demande en fait si l’humain n’est pas en train de disparaître dans sa dimension à la fois biologique et psychique du fait des technologies qui entreprennent de le réinventer, voire même de lui trouver un substitut. La question est donc devenue urgente parce que on a le sentiment que sur le terrain biologique et psychique nous sommes en train de perdre certains repères qui jusqu’à présent nous assuraient que nous savions ce que c’est qu’être humain.

Or aujourd’hui les technologies réinventent l’homme et c’est finalement cela le défi nous lance le transhumanisme. Les outils qui nous ont permis de développer progressivement une pensée conceptuelle, vont nous isoler de cette pensée pour nous enfermer peu à peu si nous n’y prenons pas garde, dans une prison qui mêlera nos sens avec la technologie. Et ce contrôle électronique, cette augmentation de nos capacités tant physiques que cérébrales nous privera progressivement de notre plus grand trésor : la capacité à penser et agir en autonomie et en liberté.

Les enjeux et risques des nanotechnologies

Les enjeux

Les nanosciences et nanotechnologies, ou NST, peuvent être définies comme l’ensemble des études et des procédés de fabrication et de manipulation de structures (électroniques, chimiques), de dispositifs et de systèmes matériels à l’échelle du nanomètre (nm), ce qui est l’ordre de grandeur de la distance entre deux atomes (Wikipedia).
Les NST ouvrent de nouveaux champs de recherche pour des disciplines telles que l’optique, la biologie, la mécanique, la microtechnologie et la médecine. Leurs applications s’étendent des simples matériaux à tout le spectre du vivant. Elles représentent un espoir très important, notamment pour les applications médicales

Effets sur l’ADN

En perspective : la modification de nos séquences d’ADN

Il n’en demeure pas moins que les nanomatériaux ont été reconnus comme toxiques pour les tissus humains et les cellules en culture. Issues de la recherche, les nanoparticules seraient en effet susceptibles d’endommager et de modifier nos séquences d’ADN. Autant dire qu’avec les nanotechnologies et les nanoparticules nous jouons aux apprentis sorciers, car même les chercheurs en ignorent encore les effets réels sur  notre santé.

Du poison dans les rayons du supermarché ?

Et pourtant on commence à trouver des nanoparticules vraiment partout dans la grande distribution. C’est à tel point que de nombreux produits de consommation courante, comme certaines crèmes solaires, produits cosmétiques, aliments dont la saveur est augmentée et bien d’autres encore,  en contiennent déjà, sans que nous en soyons pour autant conscients. Tous autant que  nous sommes pouvons être certains d’en avoir déjà consommé.

Il se pourrait que nous nous trouvions à terme face à un scandale sanitaire plus important que celui de l’amiante, car à plus grande échelle. D’autre part nous ne sommes pas capables aujourd’hui scientifiquement d’évaluer les effets des nanoparticules sur notre santé. Même si certaines applications, notamment en médecine sont prometteuses, nous ne sommes pas capables non plus de dire quelles mutations génétiques ces particules sont susceptibles d’entraîner dans notre corps comme dans notre cerveau.

Des subventions très importantes

Les nanotechnologies bénéficient pourtant de subventions de plusieurs milliards d’euros et dollars en recherche et développement car elles constituent un espoir important dans le champ des applications médicales notamment. L’Union Européenne par exemple a accordé 1,3 milliard d’euros de subventions à la recherche sur les NST dans une période allant de 2002 à 2006 et 3,5 milliards d’euros pendant la période 2007-2013.

La grande distribution ne respecte pas toujours les règles

Aujourd’hui non seulement la recherche se poursuit à plus grande échelle encore, mais on dénombre de plus en plus de produits qui contiennent des nanoparticules. Elles sont un enjeu économique énorme pour la grande distribution. Et bien que la réglementation européenne impose aux fabricants de signaler leur présence dans les produits de consommation courante par la mention « nano » dans les composants du produits, bien peu s’y conforment.

Les nanoparticules se dissimulent parfois derrière un additif comme le E171 qu’on trouve dans quantités de sucreries. Dans un communiqué en début de cette année, l’UFC Que Choisir indique qu’elle a analysé en particulier certains additifs présents dans 16 produits de grandes marques. Dioxyde de titane (TiO2, un additif utilisé pour blanchir et intensifier la brillance de confiseries ou les dentifrices), dioxyde de silicium ou encore oxydes de fer et de zinc (utilisés comme colorants) : « 100% des produits analysés contiennent des nanoparticules », affirme le communiqué. Mais nous ne sommes pas au bout de nos surprises : on trouve également des nanoparticules, notamment d’argent, dans toutes sortes de tissus innovants : anti-odeur, chauffants, hydratants… (sous-vêtements, t-shirts, chaussettes, vêtements de sport) vendus par la grande distribution. 

Même des médicaments courants comme le Doliprane, l’Efferalgan ou le Nurofen contiennent du dioxyde de titane sous forme de nanoparticules potentiellement cancérogènes.

Des conséquences importantes pour l’environnement

La nanotoxicologie étudie les risques environnementaux et sanitaires liés aux nanotechnologies. C’est un champ de recherche qui va de pair avec le développement des nanotechnologies et dont nous ne saurions nous passer.

En effet, la dissémination à large échelle de nanoparticules dans l’environnement est effectivement centrale sur le plan éthique et doit demeurer un point de vigilance dès aujourd’hui et dans les années à venir.

NBIC

Nano Biotechnologies Informatique et sciences Cognitives

NBIC est l’acronyme d’un champ de recherche pluridisciplinaire alliant Nanotechnologies, Biotechnologies, Informatique et sciences Cognitives.

Il s’agit donc de créer une interconnexion croissante entre l’infiniment petit (les nanoparticules), la manipulation du vivant (biologie), l’intelligence artificielle (informatique) et l’étude du cerveau et des comportements humains (les neurosciences et sciences cognitives).
L’objectif affiché est d’améliorer la vie humaine et de prolonger notre existence, mais aussi d’augmenter l’humain, c’est-à-dire essentiellement sa performance, en rendant ses processus physiologiques et cognitifs dépendants de la technologie.

La finalité des NBIC n’est pas nouvelle. C’est le vieux fantasme humain qui consiste à vouloir vaincre la Camarde, tout en faisant un gigantesque pied de nez aux lois de la nature. Mais le jour où un ordinateur pourra y compris lire dans nos pensées, où les plus « chanceux » d’entre nous, ou du moins les plus riches, devront se conformer au spectre d’un monde parfait, qu’adviendra-t-il de notre libre arbitre, de notre liberté de conscience ?