Télécharger le fichier pdf d’un mémoire de fin d’études
Le principe de co-citations
H. Small [11] a utilisé les travaux de Kessler sur le couplage bibliographique [12] pour développer une méthode de cartographie: l’analyse des co-citations. Cependant contrairement au couplage qui relie les documents sources, la co-citation lie les documents cités. Cette analyse est basée sur deux hypothèses :
• Quand deux articles sont cités simultanément dans un troisième alors une relation cognitive existe entre eux. La force du lien qui uni alors ces deux articles est proportionnelle au nombre d’articles qui les co-citent. C’est une des techniques utilisées pour cartographier la structure d’une discipline et identifier la dynamique d’un secteur de recherche. En appréciant la force de co-citation, on mesure le degré de relation ou d’association entre documents, comme le perçoivent les auteurs citant. De plus, comme l’analyse est basée sur les citations, alors que la structure dépeint les relations, la méthode de co-citations permet de suivre l’évolution dans le temps des relations entre auteurs.
• Les agrégats d’articles peuvent être construits à partir d’une valeur palier de co-citation, et les relations entre les clusters peuvent être représentées dans un espace à deux dimensions à partir d’un traitement statistique. Les clusters représentent les spécialités d’un domaine, et les liens révèlent les relations entre les disciplines.
Le principe de co-citation des documents a été étendu au principe de co-citation entre auteurs : un auteur A et lié à B chaque fois qu’un troisième auteur C (citant) cite les travaux de E et B. Le principe de la co-citation supprime l’autocitation qui fausse souvent les évaluations.
E. Garfield et H. Small énoncent que les documents cités deviennent d’une certaines façon le symbole des idées contenues dans les documents citant.
Méthode des mots associés
Cette méthode établit l’analyse d’un corpus d’articles sur la base des mots clés. Ces mots clés sont définis par l’auteur ou par le producteur de la base de données. Ils sont soit normalisés car extraits d’un thesaurus, soit libres comme le champ « subject heading » de la base des « chemical abstracts ». On part du postulat que les mots clés sont représentatifs du courant de pensée de l’auteur. Il s’agit de lier les articles entre eux à partir du degré de cooccurrence des mots clés entre eux, afin de pouvoir en extraire une représentation graphique. L’objectif est de mettre en évidence les thèmes potentiels à venir ou achevés et la dynamique générale de transformation de la thématique de recherche [13].
Cette méthode est basée sur l’analyse des cooccurrences des mots clé contenus dans un champ de la notice bibliographique. A partir des descripteurs il est possible d’extraire les thématiques et de détecter les liens qui les unissent. Des indices sont définis pour mesurer la force de cohésion et de proximité de ces liens, puis les mots sont agrégés en clusters, et disposés dans un espace à deux dimensions. Cette méthodologie a été en premier développée par le Centre de Sociologie de l’Ecole des Mines (CSI) de Paris au début des années 80. Du point de vue méthodologique la question est donc de savoir si l’on utilise un ou plusieurs indices pour mesurer l’intensité relative de ces cooccurrences et comment donner un sens visuel à la représentation des réseaux en produisant une carte reproduisant le domaine scientifique étudié [14]. On se place dans une approche qualitative. En comparant les graphes sur différentes périodes on peut détecter la dynamique d’une discipline.
Mapper le Web
Les citations ont une analogie avec le monde de l’hypertexte, et de nombreux travaux tentent de cartographier le web en s’appuyant sur ces liens [19]. Il est extrêmement intéressant de constater que la technique des mots associés s’applique sur une autre unité de référence que les mots : les sites Web. X. Polanco [20] applique cette technique avec comme unité de référence, le site Web. C’est la souplesse avec laquelle cette méthode s’applique sur d’autres supports qui appelle mon attention. L’objectif propose d’organiser en cluster les sites web et d’analyser les associations entre clusters. Deux sites sont associés s’ils présentent un lien réciproque. L’étude porte sur 791 sites d’universités de 15 pays, l’objectif est de mettre en évidence les collaborations. La terminologie est identique, soit un site S si i et j sont simultanément cités alors ils co-occurrent. L’indice d’équivalence calculé, le processus de clusterisation appliquée, et l’on obtient une représentation graphique en fonction des valeurs de cohésion interne et externe des clusters.
Détecter les changements d’orientation
Le front de recherche
En 1965, De Solla Price, a désigné sous le concept « front de recherche », un ensemble de documents émergents d’un champ de recherche [21]. Chaomei Chen, qui a développé la solution « Citespace »3 pour visualiser à la fois le chemin et les tendances de la littérature scientifique de par la cartographie des réseaux, le déclare comme étant l’état de l’art d’une spécialité à un instant « t ». Il y a d’un coté, les revues appartenant au front de recherche et de l’autre les revues appartenant au coeur de la littérature. Cette vision rejoint l’analyse de Pearson de la structure de la littérature.
Turning point – Citespace
Le but des cartes obtenues en utilisant « CiteSpace » [22] est de pouvoir, en temps réel, détecter les tendances et les structures de la littérature scientifique. Posons comme pré-requis que les domaines de savoir puissent être décomposés en deux concepts fondamentaux :
• Les fronts de recherche, notion introduite par Price, désignent un domaine de recherche, caractérisé par un fort taux de citation d’articles ;
• Les bases intellectuelles, constituées des articles qui citent ces fronts de recherche.
Un domaine est conceptualisé à la fois par les fronts de recherche et les bases intellectuelles. Par ailleurs, certains articles reçoivent un taux de citation élevé sur une courte période de temps, cela peut être une nouvelle découverte qui révolutionne un domaine, comme un super trou noir en astronomie. Détecter ces changements, et comprendre la cause de l’émergence des tendances, peut être utile aux chercheurs qui travaillent sur la thématique. C’est dans cet esprit que le logiciel « Citespace » est développé par Chaomei Chen. C’est une application Java qui permet une exploration visuelle des savoirs contenus dans des bases bibliographiques, qui combine simultanément, les méthodes de visualisation, la bibliométrie, et les algorithmes de data-mining. Cette recherche s’appuie sur 3 concepts fondamentaux :
• Identification des fronts de recherche via l’algorithme de Kleinsberg (développéprécédemment) ;
• Identification des points pivots : la mesure de « betweeness centrality» de Freman ;
• Hétérogénéité des réseaux.
Dont le but est de [23] :
• Identifier le front de recherche ;
• Etiqueter la spécialité ;
• Détecter l’émergence de tendance et d’abrupt changement dans le temps.
Au travers de l’approche visuelle, les zones de spécialisation d’un domaine ainsi que les sujets émergents peuvent être appréhendés.
Citespace collecte, de un à quatre mots, du titre, résumé et mots clés. Les fronts de recherche sont identifiés par la croissance rapide de leur fréquence. Il est possible de visionner les résultats, suivant les clusters, et suivant l’échelle du temps. Il est possible d’importer des données du « Web of science », et de « PubMeb ». Les fronts de recherche sont extraits à partir de l’algorithme de détection de Kleinsberg. L’utilisateur spécifie pour l’analyse, la tranche d’année, et 3 groupes de paliers pour le décompte des citations, des co-citations, et du coefficient de co-citation : (c, cc, ccv). Les paliers sont affectés à la première période, à celle du milieu et à la dernière. La courbe est ensuite construite par extrapolation. La taille des réseaux, l’association, et les options de conception sont aussi choisis par l’utilisateur. Il est ensuite possible de manipuler le graphe obtenu. La page d’accueil permet en une seule fenêtre d’accéder à tous les paramètres.
Contribuer au processus de la gestion de crise
Le dictionnaire Webster défini la gestion de crise comme un point d’équilibre, une situation qui peut basculer sous l’effet d’une influence, d’un événement, ou d’une prise de décision, et conduire à un état pire ou meilleur. Une crise se développe selon le schéma suivant : une situation s’envenime, attire alors l’attention de l’organisation concernée, trouble la conduite des affaires courante, effraie la réputation de l’organisation et met en péril sa viabilité financière.
Sept types de crises ont été identifiées par I. Mintroff [25]:
• Economique : grèves, crises du marché, déclin des actions et des profits ;
• Gestion de l’information : divulgation d’information confidentielles, pertes de données informatisées relatives aux clients, et fournisseurs ;
• Matérielle : perte d’équipements clés ;
• Ressources humaines : perte de principal collaborateurs et éléments clés de la société, montée de l’absentéisme, vandalisme accident du travail ;
• Réputation : rumeurs et atteinte à la bonne réputation de la société ;
• Psychotiques: prise d’otage, terrorisme ;
• Phénomènes naturels.
Des crises qui s’appuient sur les leviers suivants : la technologie, l’organisation, les facteurs humains, la culture et la psychologie des dirigeants.
Et qui ont pour conséquence :
• Interruption de la chaîne de production;
• Développement d’un sentiment de peur;
• Une mauvaise presse pour la société.
Postuler qu’il est possible de mettre un terme à toutes les crises avant qu’elles ne se produisent est totalement irréaliste et impossible, cependant il est probablement possible d’anticiper un certain nombre.
C’est la raison pour laquelle, la majorité d’entre elles se préparent essentiellement aux catastrophes naturelles. Ce sont des catastrophes récurrentes qui frappent toutes les entreprises de façon identique. Par conséquent, elles apparaissent moins menaçantes pour la « conscience collective » de l’entreprise. Cependant, le risque d’explosion chimique suite aux explosions du site d’A.Z.F à Toulouse, de Sevezo, et Bhoopal a intensifié la prise en compte de la menace. D’autres risques, tels que les déversements de produits toxiques et incendies sont anticipés car ils appartiennent à l’univers quotidien de l’entreprise et les dommages en terme d’image peuvent être colossaux.
Pour faire face à la conséquence d’interruption, pour un risque identifié, tel que la pandémie de grippe A4, d’actualité en septembre 2009, les sociétés élaborent un « Business Continuity Planning », un processus de planification proactif qui assure le fonctionnement des services clés et la livraison des produits alors qu’une partie de l’activité est paralysée.
Un phénomène important à prendre en considération, insiste I. Mintroff [25] est qu’une industrie peut très bien être atteinte par une crise inattendue indépendamment de son secteur d’activité.
Identifier les phénomènes de persuasion et d’influence
Persuader, c’est convaincre un interlocuteur qui a ses propres opinions à adhérer à des idées autres. Les canaux de la communication directe sont alors utilisés, autour d’un discours d’un échange, d’une négociation.
Chercher à influencer, c’est par contre susciter, induire l’adhésion d’un groupe à une proposition, une idée, un concept, dans l’attente d’un élan spontané de ce groupe, à partir d’un argumentaire approprié [27]. Un sentiment d’hostilité, tout comme d’adhésion vis-à-vis d’un événement peut être provoqué. L’argumentaire porte alors, sur les motivations qui pourraient provoquer cet élan, et s’appuie sur les ressorts psychiques. L’influence, est un ensemble de techniques et de stratégies développées pour agir sur le cerveau d’autrui, de sorte que les réticences soient vaincues.
Des techniques d’influence
Et qui mieux que les publicistes exploitent ces méthodes, pour améliorer la visibilité d’une société, et attirer l’attention des consommateurs sur un produit. Ce type d’action peut être qualifié de spontané car des comportements ou des jugements sont provoqués. Les résultats sont immédiats et souvent le sujet ne le perçoit même pas. [28]. Un grand nombre de techniques sont développées pour atteindre cet objectif : techniques de coalition, de consultation, d’inspiration, de légitimité, de pression, et de rationalisation.
Cependant au contraire des publicistes qui adressent directement les arguments à leur cible, par le biais des actions de communication, pour obtenir par exemple, une montée en flèche du nombre de ventes, il est également possible d’agir sur un tiers pour obtenir l’effet escompté.
Ces techniques indirectes à la manière d’un effet ricochet, utilisent tous les moyens légaux susceptibles d’influer sur la prise de décision législative, et communautaire. Le terme le plus fréquemment employé est « loobying ». L’expression lobby législatif, illustre cette démarche d’action sur le législateur, lorsque la norme est en cours d’élaboration, pour lui apporter des points de vus extérieurs, afin d’enrichir le débat. Ce sont ceux de l’entreprise et de la société civile [29]. Dans le cadre de cette influence rationnelle, ou influence par l’information, l’acteur est une institution, une entreprise, ou bien un individu appartenant à un groupe et ayant une fonction particulière (parlementaire). Il est poussé à intégrer dans son processus de décision les informations qui lui ont été adressées. [25]
Illustrations du jeu d’influence sur les institutions
Codex alimentarius
La Commission du Codex Alimentarius a été créée en 1963 par l’Organisation des Nations- Unis pour l’Alimentation et l’Agriculture (FAO) et l’Organisation Mondiale de la Santé (OMS), afin d’élaborer des normes alimentaires, des lignes directrices et d’autres textes, tels que des Codes d’usages.
Le codex alimentarius est le recueil des normes alimentaires approuvées par les gouvernements membres de la commission. On y trouve des définitions et des critères applicables aux aliments qui protègent la santé des consommateurs. L’intention de cette harmonisation est de faciliter les échanges internationaux, et promouvoir des pratiques loyales dans le commerce des aliments entre les 183 états membres qui contribuent à son élaboration, soumis au regard de plus de 150 observateurs, représentants des organisations gouvernementales et non gouvernementales. Organisé sous la forme d’une commission qui se réuni tous les deux ans, la représentation aux sessions se fait sur une base nationale. Les délégations nationales sont dirigées par de hauts fonctionnaires nommés par leurs gouvernements et peuvent comprendre, comme c’est souvent le cas, des représentants de l’industrie, d’organisations de consommateurs et d’instituts universitaires.
La thèse de Mme Lassalle de Salins [39], fait la lumière sur les jeux d’influence qui aboutissent à une prise de position. Elle introduit le terme de « meta-lobbying » pour qualifier une stratégie dans laquelle il y a une distance importante entre l’action d’influence et la décision. Elle qualifie la stratégie d’organisationnelle, car le processus d’influence passe par des intermédiaires. De temporelle ensuite, en raison de la longueur du délai de décision, et enfin géographique puisqu’il faut un déplacement physique et intellectuel du travail.
Entrant dans le jeu de la négociation, cette stratégie est plus complexe et plus élaborée. Incertaine également car elle nécessite une adaptation permanente et de la persévérance car s’exerce sur une longue période.
OGM
Illustrons ces jeux de pouvoirs et d’influence à Bruxelles, à partir du dossier des Organismes Génétiquement Modifiés, pour obtenir un éventuel consensus et l’adhésion de l’opinion publique à la commercialisation des OGM.
La chronologie des événements est la suivante :
• Une seule semence génétiquement modifiées est autorisée à la culture, dans l’espace de la commission européenne : le maïs Monsanto 810 ;
• L’autorité Européenne de sécurité des aliments (EFSA) a émis un avis favorable, qui assure que les OGM ne présentent aucun risque pour la santé humaine ni pour l’environnement ;
• Aujourd’hui la commission européenne propose d’autoriser la commercialisation et l’utilisation dans la communauté de trois semences Monsanto MON88017, le MON89034, et le NK603, génétiquement modifiées pour être résistantes aux insectes et tolérantes aux herbicides et concerne l’importation, la transformation et l’alimentation humaine et animale ;
• Le texte a été rejeté lors de la première présentation du texte en mars 2009;
En effet, 6 pays – France, Autriche, Hongrie, Luxembourg, Allemagne et Grèce – ont pris des clauses de sauvegarde pour suspendre la culture sur leur territoire du mais OGM MON810, en raison de risques environnementaux. Les pays européens sont dans leur grande majorité opposés aux cultures d’organismes génétiquement modifiés en raison des risques pour l’environnement et pour les autres cultures. Ils refusent de donner leur accord à toute autorisation tant que les méthodes d’évaluation de l’EFSA n’auront pas été révisées et renforcées, notamment pour mieux prendre en compte les risques de dissémination.
Deux groupes de pression s’opposent : « Greenpeace », et « EuropaBio » sur le terrain des O.G.M à Bruxelles. L’enjeu de ce débat est le retard européen dans les biotechnologies, en partie du au tournant majeur de l’affaire de la vache folle qui a mis fin à la confiance du public dans les scientifiques [40], l’autre camp (Greenpeace) combat les arguments du premier (EuropaBio) et s’oppose à toute vente des OGM.
L’opinion publique, cible des lobbyistes
Caractérisation de l’opinion publique
L’opinion publique, tout le monde parle en son nom, sans la voir, sans qu’elle soit représentée. Les médias de masse lui donnent une présence. Elle est présente sur la toile, au travers de forums, elle est de plus en plus sollicitée par les médias pour s’exprimer sur les ondes, donner son point de vue, réagir à un événement politique, social, religieux. Les organisations non gouvernementales (ONG), sont un lieu, une agora, qui fédèrent les individus qui partagent des idées similaires, par exemple, les ONG qui défendent la protection de l’environnement et des personnes.
Or parler au nom de l’opinion publique, suppose qu’elle incarne une addition d’opinions individuelles privées. Cependant Nicklaus Luhmann [42], dont nous développerons plus en détail en partie 3, la théorie des systèmes sociaux, pose comme hypothèse, sujette à polémique, que l’opinion publique n’est pas un agrégat d’opinions individuelles, mais un médium par lequel les sujets sont thématisés.
C’est-à-dire, qu’elle n’est pas rationnelle et qu’elle n’est pas non plus la manifestation d’une psychologie de masse, par conséquent sa caractéristique est sociale. Elle concerne la société et les systèmes sociaux qui la composent. N. Luhmann comprend l’opinion publique comme un phénomène qui se crée et se dissout dans le processus communicationnel et qui ne force en aucune façon la participation individuelle.
Sa seconde hypothèse est que la forme et la force de l’opinion publique, lui sont données par les médias de masse, et qu’elle n’est pas figée. Elle se construit selon 3 axes : temps, de quantité et de position dans les conflits.
Les caractères essentiels sont :
• la temporalité : Le phénomène n’est pas linéaire, puisque fonctionne sur le renouvellement constant des événements thématisées dans le temps. Certaines catégories restent constantes telle que la politique, les finances. Il y a un avant et un après ;
• la quantification : car elle dévoile des distinctions qui seraient restées autrement invisible.
Le chiffre du chômage, l’augmentation du SMIC, « parlent » aux individus. Si cette donnée est enrichie par le ratio temps, par exemple la comparaison d’une année à l’autre, cela prend valeur d’un fait. Il y a un plus et un moins;
• la conflictualisation : détermine un pour ou un contre. C’est un mode binaire, bien qu’il puisse exister des positions neutres, les indécis. Très souvent lors de débat sur des enjeux, tel que la génétique, il y radicalisation de l’argumentation, et tendance à s’opposer de façon conflictuelle. La porte est alors ouverte, pour persuader les indécis, les convertir aux arguments d’un des deux camps. L. M. Houdebine, chercheur en biotechnologies à l’INRA confirme ce jugement [43].
Le programme REACH, la bataille dans l’opinion
L’acronyme REACH correspond à enregistrement, évaluation, autorisation et restriction relatifs aux substances chimiques, ses objectifs sont:
• Améliorer la connaissance des usages et des propriétés des substances chimiques fabriquées ou importées dans l’Union Européenne ;
• Assurer la maîtrise des risques liés à leurs usages ;
• En cas de besoin : restreindre ou interdire leur emploi.
Il doit permettre la constitution d’une base de données sur les propriétés chimiques des substances produites et importées. L’objectif est d’améliorer le bien-être de la population en terme de santé et d’environnement. Les études d’impacts ont estimées comme bénéfice à terme la diminution de 2000 à 4000 cas de décès par an, et une réduction des dépenses de santé par an de l’ordre de 50 milliards d’euros sur 30 ans. Pour cela le programme comprend 4 procédures principales pour les 30000 substances concernées, produites ou importées à plus d’une tonne par an :
• l’enregistrement par les entreprises et non plus par les pouvoirs publics des substances ;
• l’évaluation par les autorités administratives de la dangerosité du produit (évaluation du facteur risque) ;
• l’autorisation ;
• la restriction.
Ce programme concerne non seulement les substances mais également toutes celles rentrant dans les préparations des articles. De plus, les usages doivent être indiqués.
L’ensemble de l’industrie chimique est concerné, et l’union des industries chimiques (UIC) représente les intérêts des entreprises adhérentes, soit 180.000 emplois directs en France.
Ce programme qui s’étale sur une durée de 11 ans, veut par ailleurs favoriser une politique d’innovation et de substitution des substances les plus dangereuses.
Proposition pour établir des mécanismes de détection
Il est nécessaire de mettre en place des mécanismes de détection de ces signaux. On sait qu’un taux fort d’absentéisme dans une entreprise, révèle un malaise dans les conditions de travail.
Il est stratégique de repérer ces signaux, car il y va de l’éventualité d’une crise ou de sa maîtrise si elle éclate. Cependant, il est communément reconnu la difficulté :
• De détecter le signal d’une réelle menace, au milieu du bruit ;
• D’évaluer, pondérer analyser la valeur du signal et les conséquences d’une possible alerte.
En effet, des études montrent [57] que la détection d’un signal ne se limite pas seulement à un ratio bruit/signal, mais qu’un certain nombre de paramètres supplémentaires doivent être pris en compte. Les attentes de l’observateur, tout comme les coûts et bénéfices sont des facteurs supplémentaires qui seront associés à la reconnaissance du signal. D’autant que la perception de l’information par des observateurs qui ont leurs propres périmètres, attentes et intérêts pour interpréter le signal complique la tache d’analyse.
En effet, même si le signal est détecté, les décideurs ont besoin d’évaluer les coûts et les conséquences d’une fausse alerte et manquent de d’éléments de filtrage pour activer le processus d’alerte [58].
L’exemple le plus flagrant dans nos mémoires est le Tsunami de 2004, dans l’océan pacifique qui a causé la mort de milliers d’individus et dévasté la région. Beaucoup de questions ont été posées : pourquoi alors que la vague se déplaçait les populations n’ont-elles pas été prévenues ? Pourquoi aucun message n’a-t-il seulement été adressé aux hôtels en bord de mer en tout simplement activant une requête sur Google de type « mail to » pour alerter les hôtels et ainsi déclencher une réaction en chaîne d’alerte ? En réaction à cet événement le Secrétaire Général des Nations-Unies a poussé les nations à réfléchir à un système global d’alerte.
La définition des Nations-Unies dans le document UN ISDR (2006) défini la priorité suivante :
« Il est défini comme étant un ensemble de réseaux d’acteurs, de savoir faire, de ressources et de technologie ayant l’objectif commun de détecter et d’alerter sur une menace imminente de sorte que des mesures préventives puissent être prises pour contrôler la menace ou limiter ses effets ». Mr Choo [58] est porteur de l’hypothèse que la menace se développe dans une période d’incubation pendant laquelle les signaux peuvent être discernés, traqués et évalué, analysés.
Les pistes déclarées sont:
• Modélisation des concepts de menace ;
• Identification et évaluation d’indicateurs ;
• Mesure et évaluation.
Processus de qualification en connaissances des documents
• La solution qui répond aux postulats énoncés, est donc MEVA, Mémoire Evénementielle d’Actualisation. Cette méthodologie semble d’un premier abord s’apparenter à une recherche conceptuelle et contextuelle, dans sa volonté de s’affranchir du travail de catalogage réalisé par les producteurs de bases de données et de l’usage des descripteurs et mots clés rattachés par des professionnels de l’information à chaque notice bibliographique. Ces bases de données structurées scientifiques, de type « Web Of Science », « Medline », « Chemical Abstracts », proposent déjà tout un enrichissement de la référence bibliographique, les mots clés choisis par l’auteur sont proposés dans la base de données orientée sciences chimiques. « Medline » s’appuie sur le thésaurus MeSh, pour indexer les références bibliographiques de sa base. Dans les bibliothèques citons RAMEAU, Répertoire d’autorité-matière encyclopédique et alphabétique unifié, langage d’indexation matière, ou celui de la bibliothèque du congrès américain. Cet enrichissement existe depuis de nombreuses années et est un point fort du métier des documentalistes. Cependant MEVA, se distingue très nettement des méthodes existantes.
• La première raison est que le travail réalisé au niveau des situations cognitives d’interprétation. Il ne s’agit pas d’analyser chaque signe du texte, mais de déceler virtuellement, si dans le document l’interprétation que je cherche s’y trouve.
Le point d’ancrage est l’élaboration d’hypothèses de recherche. Si la situation interprétative A est associée à la situation interprétative B, dans le même document, alors il susceptible d’être retenu, car il présente une interprétation qui anticipe le sens recherché.
N’oublions pas que notre cible est un expert du domaine qui a déjà cette connaissance implicite du savoir de l’ensemble de son domaine de recherche. L’indexation à lieu non plus au niveau des mots de l’énoncé, mais au niveau cognitif de l’interprétation.
• La seconde est que dans MEVA, l’usage du mot « contexte » recouvre la « situation interprétative », ce qui peut est source d’ambiguïté parfois, associant la méthode à une recherche contextuelle [65].
• La troisième, est qu’il ne s’agit en aucun cas de s’opposer aux bases de données, fiables, structurées et garant de qualité, mais de contribuer à :
• un enrichissement de ces dernières, en réindexant en connaissances un et/ou des corpus, et rajoutant un champ de métadonnées supplémentaire relatif au descripteur MEVA identifié dans le document propre à un groupe social (au sens de la théorie de Luhmann);
• et coté utilisateur final de s’affranchir de l’obligation de la maîtrise des langages documentaires propre à chaque base de données ce qui si l’on se fie aux profils des offres d’emplois représente pas moins d’1/5 des besoins [66];
MEVA, qualifie, analyse, organise, et étiquette un flux de documents selon l’interprétation cognitive des informations véhiculées, automatiquement indépendamment du format (structuré, non-structuré), de la langue utilisée ou de sa nature, il fonctionne à la manière d’un filtre puisqu’il ne porte à la connaissance de l’utilisateur que les documents qui contiennent les contextes déclarés ; Lorsque l’on souhaite désigner l’ensemble des fonctionnalités de MEVA, il est d’usage d’utiliser le terme : « atelier MEVA », ou « MEVA », le terme outil sera lui, réservé à la partie de traitement automatisée en langage symbolique. Dans les autres cas de figure un qualificatif sera alors associé au terme MEVA ;
Avant de détailler cette situation cognitive interprétative, et ce travail au niveau symbolique, positionnons MEVA par rapport aux méthodes existantes sur le marché commercial analysé par les chasseurs de tendances et par rapport aux méthodes existantes de recherche contextuelle et conceptuelle alternative à la recherche booléenne.
|
Table des matières
Première partie Information et veille scientifique d’un domaine de savoir
1.1 Introduction
1.2 La matière : l’Information
1.3 Structure organisationnelle d’un domaine de savoir
1.3.1 Le principe de citation
1.3.2 Le principe de co-citations
1.3.3 Méthode des mots associés
1.3.4 Méthode hybride : Co-citation et co-word
1.3.5 Mapper le Web
1.4 Détecter les changements d’orientation
1.4.1 Le front de recherche
1.4.2 Turning point – Citespace
1.5 Conclusion
Seconde partie Lobbying, gestion de crise et information utile
2.1 Introduction
2.2 Contribuer au processus de la gestion de crise
2.2.1 Mécanismes pour préparer et répondre à une crise
2.2.2 Illustration par le Bisphénol-A (BPA)
2.2.3 Anticiper
2.3 Identifier les phénomènes de persuasion et d’influence
2.3.1 Des techniques d’influence
2.3.2 Les cibles
2.3.3 Illustration des dommages de l’influence
2.3.4 Des perceptions différentes du lobbying : USA, France, Bruxelles
2.3.5 Illustrations du jeu d’influence sur les institutions
2.4 L’opinion publique, cible des lobbyistes
2.4.1 Caractérisation de l’opinion publique
2.4.1 Le programme REACH, la bataille dans l’opinion
2.5 Les signaux faibles
2.5.1 Définition
2.5.2 Détection
2.5.3 Proposition pour établir des mécanismes de détection
2.6 Conclusion
Troisième partie Méthodes et Outils
3.1 Introduction
3.2 MEVA
3.2.1 Postulat
3.2.2 Historique
3.2.3 Processus de qualification en connaissances des documents
3.3 Capter le sens au travers de l’interprétation
3.3.1 Analyse prospective des outils existants
3.3.2 Le signe porteur de sens
3.3.3 Le niveau symbolique ou comment capter l’interprétation du sens
3.4 Atelier symbolique MEVA : illustration
3.4.1 Analyse
3.4.2 Codage en langage symbolique
3.4.3 Elaboration du profil de veille
3.4.4 Automatisation du traitement
3.4.5 Interpréter pour un groupe social
3.5 Le groupe social au centre de la méthode
3.5.1 Ancrage dans le processus
3.5.2 Un processus en 5 étapes
3.5.3 Vers des scénarios d’innovation
3.6 Facteur de succès : coopération « groupe social » / assistant
3.6.1 Des professionnels au coeur de la problématique des archives ouvertes
3.7 Conclusion
Quatrième partie Gestion de risques dans l’industrie pharmaceutique : la transgénèse animale
4.1 Introduction
4.2 Analyse de la thématique scientifique choisie
4.2.1 Introduction
4.2.2 Vue synthétique de la discipline scientifique
4.2.3 Perception exprimée sur la toile autour de cette thématique scientifique
4.2.4 Comment la communauté scientifique perçoit-elle la réaction du public ?
4.2.5 Enonciation des risques existants
4.3 Analyse des risques
4.3.1 Risque R1 : préserver la sécurité humaine
4.3.2 Risque R2 : absence de visibilité du bénéfice perçu
4.3.3 Risque R3 : le manque de transparence
4.3.4 Risque R4 : Bien être des animaux
4.3.5 Risque R5 : Impact sur l’environnement
4.3.6 Risque R6 : Le système de réglementation
4.3.7 Risque R7 : la désinformation
4.3.8 Risque R8 : Remise en cause des paradigmes
4.3.6 Conclusion
4.4 Programmation en langage symbolique
4.5 Résultats obtenus
4.5.1 Sur les systèmes structurés
4.5.2 Apport sur les systèmes ouverts d’information
4.5.3 Conclusion
4.6 Développements attendus
Conclusion
Bibliographie
Télécharger le rapport complet