Donner un sens à l’Intelligence Artificielle

Le rapport du mathématicien et député de l’Essonne Cédric Villani intitulé « Donner un sens à l’intelligence artificielle » a été rendu public le mercredi 28 mars 2018.

L’utilisation des données au cœur de la politique économique

Le rapport de Cédric Villani met en exergue la nécessité du partage des données à l’échelle européenne, ce qui impliquerait notamment une réforme du droit d’auteur pour les rendre plus accessibles à l’analyse. Il souhaite inciter les acteurs économiques à partager leurs données. Des données européennes qui seraient également mieux protégées vis-à-vis de puissances tiers.

La mission souhaite amener les acteurs français du domaine, aussi bien privés que publics, à collaborer et à se fédérer. La qualité des applications pourrait faire l’objet d’une labellisation.

Quatre secteurs de l’économie de l’Intelligence Artificielle ont été jugés comme prioritaires : Mobilité et transports, santé, environnement, défense.

L’intelligence Artificielle pourrait être développée au travers de « plateformes sectorielles de mutualisation » et de « bacs à sable d’innovation ».

Réformer la recherche française

Le rapport Villani propose la création d’instituts 3IA. L’Intelligence Artificielle conjugue en effet plusieurs axes de recherche. Les instituts 3IA seront donc des établissements interdisciplinaires, répartis dans toute la France et coordonnés au niveau national. Le but est de fédérer les acteurs de la recherche et accroître l’offre de formation. L’IA devant traiter des masses de données très importantes, un nouveau supercalculateur verra le jour. Un cloud privé accessible sur forfait au niveau européen complétera ce dispositif. Et pour éviter la fuite des cerveaux, Cédric Villani, préconise de doubler les salaires en début de carrière.

En effet un maître de conférences débutant (bac + 8) et exigence d’excellence, perçoit en France moins de 1800 euros nets par mois et environ 3200€ enfin de carrière après plusieurs dizaines d’années de bons et loyaux services ! En famille, les premières années, il a du mal à boucler ses fins de mois. Des compétences qu’un chercheur peut valoriser à un salaire bien plus important à l’étranger.

Impact sur le travail et l’emploi : Anticiper !

L’intelligence Artificielle va profondément transformer le marché du travail. Le rapport préconise une formation tout au long de la vie pour développer notamment les compétences créatives qui deviennent de plus en plus importantes.

Il convient en effet d’anticiper les effets et préparer la transformation inévitable en favorisant le dialogue social. Les personnes exerçant les métiers les moins qualifiés ou du moins les plus sujets à automatisation, doivent être formées tout au long de leur vie.  

Pour une IA plus écologique

Le rapport préconise la création d’une plateforme mesurant l’impact environnemental des équipements numériques intelligents. Cédric Villani affirme : « D’ici 2040, les besoins en espace de stockage mondial, corrélés au développement du numérique et de l’IA, risquent d’excéder la production disponible globale de silicium ». La solution ? Une politique d’innovation « de rupture » dans le domaine des semi-conducteurs afin de les rendre moins gourmands en silicium. Un label permettrait de valoriser les solutions les plus écologiques.

Le rapport préconise de rendre accessibles d’ici fin 2019 dans le cadre de l’Open Data les données touchant à l’agriculture, la météo, l’énergie, les transports, la biodiversité, le climat, la gestion des déchets, le cadastre ou encore la performance énergétique. Certaines données privées pourraient également entrer dans le cadre de cette ouverture.

Définir une éthique

L’IA est fondée sur le Deep Learning. Ce sont des algorithmes complexes d’apprentissage automatique qui conduit la machine à prendre des décisions de façon autonome. Il est éventuellement préoccupant d’avoir une boite noire qui agit à notre place, sans savoir ce qu’il y a dedans ! Il faut donc pouvoir expliquer et détailler les algorithmes d’apprentissage automatique, d’une part et contrôler l’utilisation de certaines données d’autre part.

Il peut s’agir par exemple des données personnelles ou encore génétiques d’un grand nombre de personnes. Le rapport Villani propose la création d’un corps d’experts qui auront capacité à saisir la justice et l’administration. Une garantie indispensable pour le respect de nos libertés et la création d’une IA éthique et citoyenne. Le rapport préconise en outre la création d’un comité d’éthique des technologies numériques, dont les décisions et avis feraient jurisprudence.

C’est pour toutes ces raisons également il faudra enseigner l’éthique aux jeunes ingénieurs. Elle est quasiment absente des enseignements aujourd’hui !

Pour une IA inclusive et diverse

Pourquoi inclusive ? Parce que le constat est clair, l’Intelligence Artificielle, est aujourd’hui beaucoup plus une affaire d’hommes que de femmes. Non seulement cela pose un problème en termes d’égalité, mais également en termes de vision du monde. En effet, l’IA doit conduire à terme à proposer une certaine modélisation du monde. Un monde d’hommes ? A terme, la présence de biais cognitifs essentiellement masculins dans les algorithmes pourrait poser problème.

D’où plusieurs initiatives :

  1. Une politique incitative pour la mixité. Cédric Villani propose un seuil de 40% d’étudiantes dans les filières d’enseignement du numérique d’ici 2025
  2. Des financements pour soutenir la diversité dans l’IA.
  3. Une base de données nationale pour « objectiver les inégalités entre les femmes et les hommes ». Elle permettrait la mise en œuvre d’actions en faveur de la diversité dans les entreprises du numérique.

Moteurs de recherche : information ou Connaissance ?

La Pertinence en recherche d’information

La pertinence est ce qui, dans le système de création de sens, permet la cohérence et la transmission d’un message. L’information pertinente est celle qui permet l’identification des processus, réponses, décisions correspondant à la quête dans laquelle se trouve l’utilisateur d’un système de recherche d’information.

Grâce à l’émergence de nouveaux moyens de communication, de plus en plus d’acteurs de la société de l’information se sont mis à écrire. Dans cet espace d’échange interactif la dynamique des réseaux s’est rapidement trouvée confrontée à une surabondance d’écrits, produits de plus dans des formats différents.

Dans le contexte du web 2.0, la recherche d’information semble constituer un paradigme trop restreint et qui n’éclaire qu’une partie d’un processus cognitif ou encore ne répond qu’à une partie des questions que se posent les utilisateurs à propos de l’abondance d’information à laquelle ils sont confrontés, ainsi qu’aux savoirs qu’ils sont amenés à créer, partager, faire évoluer.

Dans ce contexte, la nécessité de trouver l’information pertinente, est liée à l’existence d’une profusion mondiale d’écrits soumis au traitement informatique de la langue. Les outils issus de l’Intelligence Artificielle et du Traitement Informatique de la langue, qui ont fait l’objet de recherches bien antérieurement à ce phénomène, ont permis d’obtenir, en recherche d’information, des résultats qui donnent la possibilité aujourd’hui à chaque utilisateur de se positionner face à cette profusion d’écrits.

De plus, il convient de tenir compte non seulement des usages de la recherche d’information, mais également de l’utilisateur lui-même et de se donner les moyens d’identifier son besoin en information, notamment en cherchant à identifier les communautés d’usagers à laquelle il appartient.

Avec les réseaux sociaux, on entre de plain pied dans l’univers de la gestion collaborative de la recherche d’information et de son partage.

En tout état de cause on est face à l’émergence d’un partage du sens, si ce n’est entre experts, à tout le moins entre amateurs éclairés. Le succès rencontré par les blogs, les fils de news et les moteurs de navigation sociale tend à prouver que le facteur de confiance se détourne progressivement des grands fournisseurs de services, pour se recentrer sur l’individu, jugé à la fois plus responsable et plus pertinent.

La couleur ou connotation donnée à la recherche d’information dépend, en effet de la communauté dont émane la recherche et l’information peut être catégorisée selon les usages. Il est important lorsqu’on parle d’information pertinente, de définir la notion de pertinence par rapport à un usage d’une part et à une communauté de pratiques ou d’intérêt, d’autre part.

A titre d’exemple, au sein d’un réseau de chercheurs, l’échange d’information et de connaissance se déploie au sein d’un triangle « espace d’application /usages / technologies », propre à l’univers de la recherche. Il  est, de ce fait, d’une nature fort différente de l’information qui peut être recherchée dans les entreprises de services, par exemple. Il est donc possible, pour chacun de ces espaces, de mieux qualifier ce qu’est la recherche d’information ainsi que le partage des connaissances, à condition de réunir de manière méthodique des éléments très divers qui contribuent, ensemble, à créer du sens.

Information et Connaissance : que nous dit Platon ?

On ne peut évoquer la notion de Connaissance, sans évoquer Platon. La théorie des Formes ou des Idées (en grec, eidos) est centrale à la philosophie de Platon. Selon Platon, la notion de connaissance a pour spécificité d’une part d’être à la fois certaine et infaillible et d’autre part de renvoyer à des objets réels et de nature immuable. Dans sa théorie des formes, Platon introduit la notion d’objet mathématique. Ces objets peuvent être vus comme des formes non sensibles mais dont on peut néanmoins expliquer la nature.

Dans la République, Platon[1] expose sa théorie de la connaissance et tout particulièrement au travers de l’image de la ligne divisée et du mythe (ou allégorie) de la caverne (Livres VI et VII). Dans la ligne divisée, Platon établit une distinction entre opinion et connaissance. Les hypothèses, qu’elles soient formulées par la science ou le résultat d’une simple observation du monde sensible, Platon ne les considère que comme des opinions, qui peuvent selon le cas être ou n’être pas bien fondées. Cependant aucune opinion ne peut être considérée comme connaissance authentique, celle-ci procédant d’un niveau plus élevé qui fait entrer en action la raison plutôt que l’expérience sensible. Les connaissances intellectuelles qui sont le résultat de l’exercice de la raison, Platon considère qu’elles renvoient à  des objets constituant l’univers permanent, aux Formes ou substances éternelles qui constituent le monde réel.

[1]                      Platon – La République Livres VI et VII – FOLIO PLUS PHILOS N°78 – Editions Gallimard- ISBN : 2070338371 – EAN : 9782070338375

Une théorie de la complexité

Une fois posée la distinction entre opinion et connaissance il convient d’établir un lien entre information et connaissance. Celle-ci passe cependant par l’élaboration d’une théorie de la complexité. Edgar Morin, dans son ouvrage, « La Méthode », établit clairement ce lien en même temps qu’une distinction, en développant les notions d’activité computante et activité cogitante : « Comme toute connaissance cérébrale, la connaissance humaine organise en représentations (perceptions, remémorations) les informations qu’elle reçoit et les données dont elle dispose. Mais à la différence de toute autre connaissance cérébrale (animale) la connaissance humaine associe récursivement activité computante et activité cogitante (pensante), et elle produit corrélativement des représentations, discours, idées, mythes, théories, elle dispose de la pensée, activité dialogique de conception, et de la conscience, activité réflexive de l’esprit sur lui-même et sur ses activités ; la pensée et la conscience utilisent nécessairement, l’une et l’autre, les dispositifs linguistiques-logiques, et ceux-ci sont à la fois cérébraux, spirituels et culturels ». 

Est-ce l’usage qui crée le sens ?

Wittgenstein[1]  avance quant à lui que « la signification c’est l’usage ». Cependant quelle valeur donner à une signification qui ne ferait pas consensus, autrement dit, qui ne serait pas vecteur de communication entre les hommes ? « On aimerait dire ici : tout ce qui va me sembler correct sera correct. Et cela signifie seulement que nous ne pouvons parler au sujet de ce qui est “correct”. ”». Cette pensée aborde la dimension symbolique du langage. Tentons de boucler maintenant la quadrature du cercle en avançant la seconde proposition d’une assertion qui terminera sa vie en forme de sophisme voué aux gémonies de la pensée circulaire. Si on part du principe que « la signification c’est l’usage » alors l’usage des mots est-il le langage ?

Peut-être, si on en croit Steiner[2] qui affirme que « Le langage ne peut jouer pleinement que dans un domaine spécial et restreint de la réalité » ; mais qui s’empresse immédiatement d’ajouter : « le reste, et sans doute la plus grande part, est silence », ce à quoi Wittgenstein[3] lui  répond en écho « C’est dans la lumière et non dans l’obscurité que nous plongeons au-delà du langage ».

On peut certainement s’en tenir au postulat technicien de la fonction du langage, dans une recherche qui s’inscrit dans un environnement technologique, ancré dans l’ici et maintenant. Peut-on cependant s’autoriser à formuler une définition mécaniste du sens ? Et peut-on, inversement, aborder la thématique du sens sans aller jusqu’à des considérations ontologiques qui porteraient le débat bien au-delà des attendus de cette recherche ? La question reste ouverte… et le cœur de l’argumentation serait peut-être alors, plus animé par une volonté de partage, que de recherche d’une vérité qui revêt une expression différente pour chaque être et réside dans le secret de leur humanité.  Le juste milieu, dans le cadre de cette recherche,  se situe peut-être dans une définition, voire une reformulation de la notion d’information.

[1] Ludwig Wittgenstein, 1953/2004, Recherches philosophiques, traduit de l’allemand par Françoise Dastur, Maurice Elie, Jean-Luc Gautero, Dominique Janicaud, Elizabeth Rigal, Paris, Gallimard.

[2] Georges Steiner,  Langage et silence (Language and Silence: Essays 1956-1968). Paris, Seuil, 1969.

[3] Cité par Steiner

Et le web 2.0 ?

Durant les années 90, l’utilisation de plus en plus importante de ce qu’on appelait alors les Nouvelles Technologies de l’Information et de la Communication a dynamisé la production écrite ainsi que la recherche d’information textuelle. Par ailleurs, dans le monde du travail, l’informatique permettait d’industrialiser les échanges de données ainsi que leur production.

Avec la généralisation des usages de l’internet, les technologies de traitement de données se sont orientées progressivement vers le traitement de l’information. Ce nouveau media de dissémination de l’information a amené les spécialistes à établir le constat suivant : l’information n’est pas la connaissance. La nourriture qui fait vivre et exister les organisations économiques ou institutionnelles est la connaissance, et nous évoluons collectivement dans une économie et une société de la connaissance qui se nourrit et met en perspective la valeur produite à partir de l’utilisation de connaissances.

Il est certes nécessaire de distinguer information et connaissance mais indispensable de ne pas les séparer non plus. Il ne faut pas perdre de vue que chaque acteur de la société de l’information assume à la fois le rôle de producteur et de chercheur d’information et de connaissance.

C’est ce qui fait que l’utilisateur des technologies de l’information et de la communication ne se trouve jamais face à un vide cognitif, ni dans un processus ponctuel de recherche d’une information isolée de son contexte. On observe de ce fait, une authentique rupture par rapport à la société des medias de masse et par rapport aux visions qu’on avait antérieurement de l’organisation. C’est en quelque sorte l’interactivité qui fait l’organisation et non l’organisation qui va décider de façon rationnelle qui a besoin de tel ou tel type d’interactivité ou espace d’échange, pour être et demeurer efficace.

C’est en fait à partir d’usages  massifs que s’imposent tout à la fois des technologies et des usages technologiques dominants. Et de ce fait, la véritable structuration de l’information s’établit au sein d’un processus de démultiplication et de socialisation des usages de la recherche d’information. Avec les phénomènes liés au web 2.0 comme les wikis ou encore la production de tags d’auto-référencement, comme c’est le cas sur Facebook, on se trouve face à des systèmes qui s’auto-alimentent et s’auto-organisent.

Recherche d’information : Sens et Knowledge Management

La question du sens est centrale en recherche d’information. C’est ce qui permet à un moteur de recherche d’être pertinent et donc utilisé par les internautes. En entreprise, utiliser un moteur efficace est le nerf de la guerre en matière d’efficacité. Ma thèse de doctorat est consacrée à l’évaluation des moteurs de recherche multilingues, à partir du sens. J’ai en effet mis au point un protocole fondé sur un réseau sémantique et qui, en reclassant les résultats de plusieurs outils de recherche, par ordre de pertinence, arrive à faire en quelque sorte, Google… mieux que Google ! 

L’article ci-dessous est un court extrait de mon travail de doctorat. Il pose les contours de la recherche du sens en recherche d’information, ici, à partir de la notion de Knowledge Management. 

Vous pouvez télécharger l’article en cliquant sur ce lien ou attendre quelques instants qu’il s’affiche ci-dessous… 

La question du sens en recherche d information

La folksonomie

Etymologiquement la folksonomie est la contraction de deux termes anglais « folk » (les gens, les usagers) et « taxonomie », système d’organisation des connaissances fondé sur des catégories. Née des usages spontanés du web 2.0, la folksonomie, autrement appelée en anglais « social bookmarking » consiste donc à noter et classifier les sites en fonction de leur usage et du service rendu. La folksonomie permet de sortir de la boucle infernale de la surinformation ou infobésité. 

L’article ci-dessous, que j’ai écrit en 2006 pour la lettre Recherche et Référencement (www.abondance.com) analyse les usages de la folksonomie qui était un concept montant au moment où est né le web 2.0

Vous pouvez soit télécharger le fichier pdf de l’article sous ce lien, ou attendre quelques instants qu’il s’affiche ci-dessous

folksonomie Marianne Dabbadie

Marianne Dabbadie

Mon souhait pour l’avenir de notre planète

Je suis Marianne Dabbadie, Dr en Sciences de l’Information et de la Communication. J’ai un parcours hybride entre recherche universitaire, recherche industrielle et missions conseil dans les domaines du Traitement Automatique des Langues Naturelles, des réseaux sémantiques, le Management et la Gestion de Projets.
Je connais bien les problématiques liées aux GAFAM et à l’Intelligence Artificielle et m’y intéresse depuis très longtemps, au-delà de mon domaine de recherche et d’expertise spécifique qui est le Traitement Automatique des Langues Naturelles et le web sémantique.

L’importance de l’éthique

Je suis convaincue, en outre, qu’il est indispensable de prendre en main le développement de l’Intelligence Artificielle pour la France et en Europe avec un focus important sur les questions d’éthique, notamment en ce qui concerne la médecine, la Défense Nationale, la protection des données et des libertés individuelles. Ce développement de l’éthique doit pouvoir aller de pair avec la recherche et le développement industriel, pour faire de la France le leader d’une IA citoyenne et industrielle dans un monde en plein développement. Ce qui n’est pas envisageable, c’est de freiner les progrès scientifiques sans adaptation législative ou de régulation.

Penser l’Intelligence Artificielle

Travailler sur l’Intelligence Artificielle c’est accorder une importante particulière à l’aspect pluridisciplinaire d’un champ de recherche alliant Nanotechnologies, Biotechnologies, Informatique et sciences Cognitives et qui met en jeu le devenir de l’humanité. Ce qu’il est important de comprendre c’est que l’intelligence artificielle est coextensive à tous les niveaux de la réalité. Elle implique à la fois la recherche scientifique au niveau mondial, la recherche industrielle et les applications qui en sont faites. Aucune technologie d’avenir ne peut plus se penser en la mettant entre parenthèses. L’enjeu est donc simple et global : il s’agit de mettre l’Intelligence Artificielle au service de l’homme. Ce qui implique de la penser, et non plus seulement de la développer et de l’appliquer.

Campagne d’évaluation CESTA

Entre 2003 et 2007 j’ai travaillé sur la campagne CESTA, Campagne d’évaluation des systèmes de traduction automatique. CESTA a été la première campagne d’évaluation européenne consacrée à la traduction automatique et financée dans le cadre de l’action Technolangue. CESTA, ainsi que l’idée d’en faire une campagne Européenne, est née de ma passion pour la traduction automatique et de mes travaux antérieurs à ce propos. J’ai monté le dossier pour l’Université de Lille 3 et nous avons constitué une équipe pluridisciplinaire qui a porté le projet pendant presque quatre ans. L’article ci-dessous récapitule les travaux d’étape de CESTA en 2004 et la méthodologie d’évaluation mise en place pour évaluer la pertinence des traductions. 

 

Publications scientifiques et professionnelles

PUBLICATIONS SCIENTIFIQUES

 Dabbadie Marianne, Mustafa El Hadi Widad, Timimi Ismail : “Setting a methodology for machine translation evaluation”  MT Summit VIII, Santiago de Compostela, Spain, 18-22 September 2001

Dabbadie Marianne, Mustafa El Hadi Widad, & Timimi Ismail: Terminological enrichment for non-interactive MT evaluation” LREC-2002: Third International Conference on Language Resources and Evaluation. Proceedings, Las Palmas de Gran Canaria, Spain, 27 May – 2 June 2002; pp.1878-1884 – 2002

Dabbadie Marianne, Hartley Anthony, King Margaret, Miller Keith J., Mustafa El Hadi Widad, Popescu-Belis Andrei, Reeder Florence, & Vanni Michelle: A hands-on study of the reliability and coherence of evaluation metrics. LREC-2002: Third International Conference on Language Resources and Evaluation. Workshop: Machine translation evaluation: human evaluators meet automated metrics, Las Palmas Canary Islands, 27 May 2002; pp.8-16. 2002

Dabbadie M., Mustafa El Hadi, W. Timimi, I., (2004). CESART : Campagne d’Evaluation des Systèmes d’Acquisition de Ressources Terminologiques et Traduction Automatique, in Actes du Colloque LREC’ 2004, pp. 515-518.

Dabbadie, M., Mustafa El Hadi, W., Fraysse, F. (2004) “Coaching applications: a new concept for usage testing on information systems”: Testing usage on a corporate information system with K-Now”, In « Knowledge organization and the global society, Proceedings of the 8th Inter. ISKO Conf. IA McIlwaine (eds), Ergon, 13-16 July, Advances in knowledge organization, vol. 9, London, pp. 331-336.

Dabbadie M., Mustafa El Hadi, W. Timimi, I., CESTA : Campagne d’Evaluation des Systèmes de Traduction Automatique. In Proceedings of the II International Workshop on Language Resources for Translation Work, Research and Training, COLING’4, Geneva, 2004.   

Dabbadie M., Mustafa El Hadi, W. Timimi, I., (2004), “CESTA, The first European Machine Translation Evaluation Campaign”. In Multilingual n° 65 volume 15, issue 5, p. 10-11.

  1. HAMON, A. POPESCU-BELIS., K. CHOUKRI, M. DABBADIE, A. HARTLEY, W. MUSTAFA EL HADI, M. RAJMAN, I. TIMIMI, (2006). “CESTA: First Conclusions of the Technolanguage MT Evaluation Campaign”. In: Proceedings of the 5th international Conference on Language Resources and Evaluation (LREC 2006), Genoa, Italy, May 2006, p.179-184

Dabbadie M., Blancherie JM, Mustafa El Hadi, W. (2006) – Alexandria, a multilingual semantic network for Knowledge Management purposes – in Knowledge organization in a Global Learning Society – proceedings of the 9th ISKO Conference 2006, Vienna

PUBLICATIONS SUPPORTS PROFESSIONNELS EXPERTS

VEILLE MAGAZINE

Depuis Septembre 2004 :

Rubrique Search et usages de la toile dans Veille Magazine

Veille Magazine n°70 Décembre 2003

  • « Osez la linguistique, ça marche ! » – Interview de Stéphane Chaudiron – 2 pages

Veille Magazine n°73 avril 2004

Dossier Industries de la langue – 14 pages

  • Industries de la langue : « vous êtes plutôt TIL ou TAL » ?
  • Memodata : une PME au coeur des réseaux linguistiques
  • Interview de Joseph Mariani : « Nous souhaitons que des applications industrielles de plus en plus importantes voient le jour »
  • Big Brother – Nom de code : multimodal

Veille Magazine n°75 juin 2004

  • ELRA : rencontre avec Khalid Choukri (2 pages)

Veille Magazine n°76 juillet 2004 

  • Stéphane Chaudiron : vers la convergence des technologies (2 pages)

Veille Magazine n°77 septembre 2004

  • Ujiko : un moteur de recherche orienté utilisateur (2 pages)

Veille Magazine n°78 octobre 2004

  • Dossier évaluation – les outils logiciels : pourquoi et comment les évaluer ? (10 pages)
    • L’utilisabilité : « ça sert à quoi » ?
    • L’ergonomie cognitive : à la recherche d’une simplicité perdue
    • Le casse tête de l’ISO : des directives un peu complexes
    • L’évaluation, un facteur d’innovation : interview de Stéphane Chaudiron
    • Vers une communication simple et ludique : Interview de René Forgues sous directeur des réseaux de communication au MINEFI
  • Test moteur de recherche : Nous avons testé Windex Server (2 pages)

Veille Magazine n° 79 novembre 2004

  • Nous avons testé Global Finder de Knowings (2 pages)

Veille Magazine n°81 février 2005

  • Intuition, un logiciel qui porte bien son nom (3 pages)

Veille Magazine n°83 avril/mai 2005

  • Alexandria : un dictionnaire multilingue pour site web (2 pages)

Veille Magazine n°85 juillet/août 2005

  • Exalead, une des meilleures navigations du moment (3 pages)

Veille Magazine n°89 décembre 2005/janvier 2006

  • Sommet Mondial de la Société de l’Information : Open access et fracture numérique : la liberté à quel prix ? (3 pages)

Veille Magazine n°90 février 2006

  • Le Search Engine Marketing : une nouvelle façon de rechercher l’information (2 pages)
  • Interview de Olivier Andrieu : « Le terrain à défricher est encore immense » (2 pages)

Veille Magazine n°92 avril 2006

Viadeo, un réseau social relationnel (3 pages)

Veille Magazine n°95 août/septembre 2006

Anticiper les usages et évaluer les outils de veille in vivo (3 pages)

Veille Magazine n°96 octobre 2006

Mozbot, le moteur de recherche qui mise sur les services à l’utilisateur (3 pages)

De  nombreuses autres publications dans Veille Magazine en 2008 et 2009

LETTRE RECHERCHE ET REFERENCEMENT (Abondance : www.abondance.com)  

Depuis Janvier 2006 :

Rubrique Recherche d’information et nouveaux usages de la toile

Janvier 2006 :    

Crible : Exalead, Dir.com, Misterbot et Mirago (3 pages)

Février 2006 :    

La folksonomie, c’est quoi ? (5 pages)

Mars 2006 :       

Ces moteurs qui clusterisent… (5 pages)

Avril 2006 :         

La cartographie d’information : analyse de Kartoo et Mapstan (4 pages)

Mai 2006 :          

Les moteurs de recherche d’actualités : Google et Yahoo ! News,  focus sur Wikio (5 pages)

Juin 2006 :         

  • Recherche d’information : une cartographie des nouveaux usages de la toile (2 pages)

Juillet 2006 :       

  • Les swickis : un nouveau concept de moteur vertical (3 pages)

 Septembre 2006 :

  • Interview de Christian Fluhr : « Nous voulons associer la reconnaissance de formes à l’image et à la video » (5 pages)
  • Les moteurs de recherche d’images : benchmark Flickr-Google- Yahoo !-Altavista (4 pages)

Octobre 2006 :  

  • Interview de Jean-Marc Blancherie : L’ère de l’intranet 2.0 vient de s’ouvrir (7 pages)

Novembre 2006:

  • Interview de Yves Simon (Fast) : « Les portails d’entreprise doivent prendre conscience de l’importance de la recherche » (6 pages)

Décembre 2006 :

  • Mind Manager Research Accelerator : metamoteur de recherche spécialisé dans le Mind Mapping (6 pages)

Janvier 2007 :

  • Stéphane Chaudiron (Ministère de la Recherche) : « les tendances de la recherche d’information vont vers le Web sémantique, l’indexation collective et les technologies linguistiques » (5 pages)

Février 2007 :

  • Quaero, Pharos et Theseus : un point sur trois projets européens (3 pages)

Mars 2007 :

  • Dossier : Pharos : 13 partenaires et 9 pays pour un projet de recherche européen (9 pages)

Avril 2007

  • Recherche d’information : quelques trucs et astuces (4 pages)

Mai 2007 :

  • Des laboratoires pour les grands de la recherche d’information (4 pages)

Juin 2007 :

  • Moteurs de recherche audio : Rechercher de la musique n’a jamais été aussi facile… (3 pages)

Juillet 2007 :

  • Nouveaux outils de recherche : Zetool et Widepress (5 pages)
  • Web sémantique et recherche d’information : où en est-on ? (3 pages)

Novembre 2007

  • Jean-François Gervais (INA) : « Le Web 3.0 sera sémantique » (5 pages)

Enseignements et conférences

ENSEIGNEMENT ET CONFERENCES Marianne DABBADIE

ATER Charles de Gaulle Lille 3 – UFR IDIST

Mastère Sciences de l’Information et du Document :

Gestion de projets :

Approche méthodologique et bases du management de projets

Objectifs :

  • A la fin du module, les étudiants sont capables de:
  • Maîtriser le vocabulaire lié au management de projet,
  • Définir les concepts de base du management de projet,
  • Intégrer le projet dans une démarche générale de résolution de problème,
  • Présenter, définir et critiquer les principaux outils de la gestion de projet,
  • Effectuer des comparaisons économiques de différents projets techniques,
  • Dans un cas concret donné, choisir les outils et la méthode à mettre en oeuvre afin d’assurer le bon déroulement de toutes les phases d’un projet,
  • Ont une approche théorique et pratique de la qualité projet et des normes ISO série 9000 applicables à ces processus

Déroulement :

  • La première partie du cours consiste en une approche théorique de la gestion de projet.
  • La deuxième partie, plus orientée pratique, comprend un jeu de simulation durant lequel les étudiants peuvent prendre le rôle du chef de projet ainsi que la présentation par les étudiants d’un ensemble d’études de cas. La modélisation des projets se fait à l’aide d’une méthodologie qui utilise les cartes mentales pour la modélisation des idées, le brainstorming et la dynamique de groupe.

 

M2 Sciences de l’Information et du Document :

Veille, Intelligence Economique et outils d’accès à l’information :

  • Méthodologie d’Intelligence Economique conseillée par l’ADIT aux PME
  • Le cycle de veille en sept étapes
  • Panorama des outils d’accès à l’information et approche pratique
  • Traitement Automatique des Langues Naturelles
  • Dossiers réalisés sur des thèmes tels que : la veille et l’Intelligence Economique, l’accès à l’information, apprentissage des langues assisté par ordinateur, agents intelligents

 

M2 Sciences de l’Information et du Document : Analyse de données

Bases théoriques de :

  • L’infométrie
  • La bibliométrie
  • Les étudiants apprennent les fondements théoriques de ces disciplines et ont une approche pratique des outils, notamment les logiciels d’enquêtes.

 

Conférence à l’université de Caen (DESS –GREYC)

Partage de l’information en réseau et recherche d’information multilingue :

  • Cas des applications fondées sur un réseau sémantique

 

Ecole Nationale Supérieure des Arts et Métiers (ENSAM) – Séminaire ATHENS

Séminaire d’étudiants Européens de grandes écoles sur le Knowledge Management – trois jours d’enseignement et animation scientifique sur le thème de l’ingénierie des connaissances – Traduction et interprétation pour les conférenciers monolingues (26 heures)

Ecole Supérieure d’Ingénieurs de Marseille (ESIM)

Cycle de conférences : « Modèles basés sur le sens pour la modélisation des connaissances » :

  • Panorama du domaine (entreprises, associations, formations, métiers, applications, programmes ministériels)
  • Réseaux sémantiques (architecture, modélisation et applications)
  • Partage de l’information en réseau
  • Knowledge Management et réseaux de sens
  • Méthodologies de Veille et d’Intelligence Economique

 

Cycle de conférences– Université de Lille III – IDIST (DESS SID)

  • Partage de l’information en réseau et recherche d’information multilingue
  • Débouchés professionnels des métiers de la Documentation
  • Systèmes de veille et leur emploi dans le contexte de l’entreprise

 

Cycle de conférences à l’université de Caen (DESS RADI – GREYC)

Gestion des ressources terminologiques multilingues et Assurance Qualité  

Cycle de conférences– Université de Lille III – IDIST (DESS SID)

  • Partage de l’information en réseau et recherche d’information multilingue
  • Débouchés professionnels des métiers de la Documentation
  • Systèmes de veille et leur emploi dans le contexte de l’entreprise

 

Cycle de conférences à l’université de Caen (DESS RADI – GREYC)

Gestion des ressources et processus Qualité