Human computation, définitions état de l’art

Human computation, définitions état de l’art

Les concepts précurseurs

La démocratisation du concept de HC est intimement liée à l’utilisation à très grande échelle de la micro-informatique et au développement des réseaux Internet puis des médias sociaux : la plupart de ses applications sont donc très récentes.

On retrouve néanmoins, depuis la fin du XXème siècle, auprès des scientifiques ou des techniciens, une certaine continuité dans la recherche de processus originaux capables de mêler le calcul et l’humain, sans que bien souvent le concept n’ait été complètement formalisé, et ce, jusqu’à l’avènement des médias sociaux dans les années 2000.

Les paris sur les courses de chevaux et plus largement les paris sportifs semblent avoir touché toutes les civilisations et toutes les périodes, ils constituent en quelque sorte la « préhistoire » du HC. Dans le cadre du « human computation », ce n’est pas la course en elle-même qui présente un intérêt mais l’élaboration, la communication et l’utilisation des cotes par et pour le joueur-parieur . La publication des cotes de paris est vraisemblablement le premier processus organisé de HC connu : elles ont fait l’objet de nombreuses études et sont encore fréquemment citées dans les travaux de recherche (au sein de la « Society of Judgment & Decision Making » [1] par exemple ou comme illustration de phénomènes d’intelligence collective [2], [3]. A partir de ces cotes, les joueurs vont construire de nouvelles stratégies qui viendront elles-mêmes influencer de nouveaux parieurs [4] et ainsi de suite, jusqu’à former un prix généralement stabilisé au départ de la compétition.

S’il est facile de trouver des éléments historiques sur l’organisation de courses de chevaux dans la Rome et la Grèce antiques, il est impossible de dater précisément l’apparition du concept de « cote » d’un cheval ou d’une équipe en tant qu’élément factuel de décision présenté aux joueurs, qui serait calculé de façon systématique. Il apparaît néanmoins que la notion de cote est aujourd’hui généralisée dans tous les domaines du pari : son mode de calcul est transparent et elle est servie en temps réel aux joueurs.

En France, la première loi sur le PMU « Pari Mutuel Urbain » date du 2 juin 1891. L’esprit de cette loi est tout à fait singulier car elle fixe un objectif au PMU en formalisant pour la première fois un processus organisé et fondé sur des décisions humaines visant à l’amélioration de la race chevaline, l’intelligence cupide des parieurs étant finalement présentée comme une méthode de sélection des meilleurs chevaux et non de distraction du public. Ainsi, seules étaient autorisées « les courses de chevaux ayant pour but exclusif l’amélioration de la race chevaline et organisées par des sociétés dont les statuts sociaux auront été approuvés par le ministre de l’agriculture» [5]. En outre, on peut supposer que cet objectif avait des visées plus militaires qu’agricoles, car l’urgence en France à l’époque est de fournir les armées en chevaux de guerre, dans des races identiques à celles des chevaux de course (pur sang et demi-sang) [6] .

La loi sur le PMU est donc l’un des touts premiers exemples d’un processus complet (formalisé et publié sous forme de décret) visant à l’amélioration d’une « solution » (la race chevaline), par la mutualisation organisée et formalisée d’intelligences humaines (les parieurs) en vue d’un objectif (la victoire). Dans le domaine de la finance également, l’utilisation d’indicateurs dans le processus de décision d’un investisseur, constitue également une sorte d’algorithme de type HC.

La valeur d’un marché, d’une action ou d’un dérivé est en effet le résultat de l’action conjuguée de tous les investisseurs au bénéfice de la communauté elle même. La fiabilité de ce processus ayant en quelque sorte été validée par la théorie des marchés efficients (ou EMH) [7] qui démontre la fiabilité d’un prix de marché ou d’un indice et l’impossibilité pour un investisseur de battre en moyenne la performance du marché sur le long terme [8]. Même si les cotations des valeurs financières constituent en elles-mêmes des indicateurs, on peut considérer que la création des indices boursiers, comme agrégation de différentes valeurs financières constituent finalement la première étape d’un calcul (la somme de toutes les interactions des intervenants sur un marché) faisant intervenir une communauté humaine (celles des investisseurs) dans une forme basique de HC, au profit du public. Il est ainsi intéressant de noter que le Dow Jones, ancêtre des indices boursiers (1884) a été créé par deux journalistes [9] et non par des financiers : l’enjeu de cette information « humaine » et agrégée dépasse donc, dès sa création, le cercle des investisseurs en constituant une information pour un public plus large. Les expériences d’économies socialistes et dirigées du XXème siècle nous donnent également des éléments de preuves supplémentaires de l’intelligence des marchés dans leur capacité à agréger des décisions individuelles d’acteurs économiques, de spéculateurs ou d’investisseurs. En effet, la fixation des prix a longtemps été le casse-tête des dirigeants de l’ex-URSS, ne disposant pas de la puissance de calcul « humaine » offert par le marché. Popkdewicz [10] considérait ce sujet comme le maillon faible du modèle socialiste. Ainsi, à défaut de pouvoir calquer ses prix sur les économies « capitalistes », Friedrich Hayek (Prix Nobel d’économie en 1974) démontre ainsi l’incapacité d’une économie planifiée à allouer correctement les ressources car elle se prive du travail collectif des marchés pour la formation des prix [11].

Les principes du human computation 

Le human computation regroupe l’ensemble des techniques ou des procédés s’appuyant sur de larges communautés humaines pour réaliser une tâche ou un processus précis. Le terme « human computation » a été utilisé pour la première fois par Luis Von Ahn dans sa thèse présentée en 2005, puis dans différents articles [12], [13], [14] il est également à l’origine du projet « reCaptcha » [15] qui met en œuvre à très grande échelle un processus de HC. Luis Von Ahn définit le human computation (HC) comme une technique de calcul qui confie certains processus à des humains et notamment des tâches unitaires complexes à réaliser par des machines comme la reconnaissance visuelle, le décryptage de caractères etc… Dans le Human computation, l’homme est au service d’un processus qui le dépasse, dont il n’a pas forcément conscience et dont il n’est pas forcément le bénéficiaire. L’utilisation du terme « Human processor » est un bon résumé du principe de human computation .

Le concept de human computation marque une rupture intéressante avec l’ensemble des concepts faisant appel au cerveau ou au travail du public pour fonctionner. Le human computation met délibérément l’humain au service de la machine [17] en plaçant sciemment et volontairement l’homme au cœur d’un processus de calcul ou d’évaluation. Cette approche pose le problème de motivation des participants. Il est, en effet, difficile de convaincre un humain de jouer le rôle d’un processeur au sein d’un projet dont il ne serait pas directement le bénéficiaire ! Actuellement, on peut citer 2 types d’approches : une approche contrainte et une approche ludique.

Approche contrainte 

Aussi surprenant que cela puisse paraître, le premier système à grande échelle faisant appel au « human computation » est fondé sur une participation contrainte des utilisateurs dans un schéma opportuniste utilisant le « CAPTCHA ». Le « CAPTCHA » est un test couramment utilisé sur le web permettant de distinguer un utilisateur humain d’un robot pour l’accès à des services à valeur ajoutée : inscription à un forum, ouverture d’un compte sur Paypal etc… L’enjeu de l’éditeur est d’éviter le spam publicitaire sur des forums gratuits ou des tentatives de hacking ou de détournement par attaque massive . Le CAPTCHA est difficile à interpréter par une machine, alors qu’un humain avec un niveau basique de lecture résout facilement ce test.

L’idée développée par Luis Von Ahn est de profiter de cette capacité humaine à interpréter des caractères hétérogènes, pour la mettre au service d’un projet de digitalisation de livres anciens : une tâche généralement confiée à des systèmes automatiques de vidéocodage qui produisent de 2 à 15 % d’anomalies (selon la qualité du texte initial ) et nécessitent systématiquement l’intervention d’un opérateur-correcteur. L’enjeu est donc économique et Luis Von Ahn décrit un processus qui utilise l’homme comme « unité élémentaire de calcul » pour réaliser une opération de vidéocodage [12], [12]. En effet, chaque jour, 200 millions de CAPTCHA sont résolus par les internautes, ce qui à 10 secondes le CAPTCHA représente une force de calcul équivalente à 23 000 jours/homme [18].

Le système reCAPTCHA [19] , racheté par Google à Luis Von Ahn en 2009, propose aux éditeurs de sites web un module de Captcha efficace et gratuit sous forme d’un « plug-in » qui s’intègre facilement sur un site web existant .

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
1 Executive Summary
2 Human computation, définitions état de l’art
2.1 Les concepts précurseurs
2.2 Les principes du human computation
2.3 Les concepts connexes au human computation
2.4 Topologie des concepts
2.5 Le serious game : la collaboration ludique comme moteur du HC ?
2.6 Les jeux massivement multi-joueurs relèvent-ils du HC ?
2.7 L’ADN du Human Computation
3 Le trading algorithmique, définitions et topologie
3.1 Topologie des systèmes de trading
3.1.1 Premier niveau : Optimiser le passage d’ordre
3.1.2 Deuxième niveau : automatiser l’exécution d’une stratégie
3.1.3 Niveau 3 : Systèmes auto-apprenants
3.1.4 Auto-conception d’un algorithme de trading
3.2 Axe fréquence
3.3 Architecture des algorithmes de trading
4 Recensement des modèles de HC existants pouvant servir de base ou d’inspiration pour des expérimentations sur le trading algorithmique
4.1 Le cas ENRON
4.2 Le modèle Fold-it
4.2.1 Le problème scientifique résolu par Fold-it
4.2.2 Le principe de Fold_it
4.2.3 Problèmes déjà résolus par les joueurs de Fold-it
4.2.4 Description du jeu
4.3 Les résultats de Fold-it
4.4 Fold-it, en conclusion
4.5 Exemples de principes de HC existants, appliqués au pilotage des stratégies de trading
4.5.1 Les signaux consolidés des plates-formes de trading communautaire
4.5.2 Le cas #trading
4.6 Conclusion les applications existantes du HC dans le domaine financier
5 Introduction aux expérimentations
6 Expérimentation Twitter – HC appliqué aux données d’entrée d’un système de trading
6.1 Médias sociaux : une source d’informations pertinente ?
6.2 Médias sociaux, un nouveau fournisseur de contenu pour le trading
6.3 Approche expérimentale, un signal Twitter
6.4 Définition d’un signal Twitter fondé sur l’inattendu
6.4.1 Méthode Twitter thématique
6.4.2 Méthode Twitter asémantique : l’ « inattendu inattendu »
6.5 Expérimentations préliminaires sur le VIX
6.6 Un système de trading auto-apprenant pour évaluer la pertinence des signaux
6.7 Intégration du signal « Twitter » sur une stratégie de trading
6.8 Résultats
6.9 Conclusion
7 Expérimentation Krabott : HC appliqué à l’optimisation des stratégies de trading
7.1 Disposer d’un référentiel de comparaison fiable
7.2 Contraintes de fréquence et profondeur d’historique
7.3 Krabott, l’analogie avec Fold-it
7.4 Le moteur algorithmique des Krabott
7.5 Les variantes HBGA et IGA pour mettre en œuvre le HC
7.6 Implémentation Krabott
7.7 Les prototypes Krabott V1&V2
7.7.1 Options ergonomiques
7.7.2 Promotion
7.7.3 Le jeu
7.7.4 Ergonomie mobile (version 2 mobile)
7.8 Les règles du jeu
7.9 Cycle de vie d’un Krabott
7.10 Implémentation des stratégies de trading
7.11 Les campagnes expérimentales protocoles HC 1 & HC 2
7.11.1 Protocole HC1
7.11.2 Protocole HC2
7.12 Quelques constats complémentaires sur le comportement des joueurs
7.13 Discussion
8 Expérimentations Krabott V3 (2012- 2013)
8.1 Deux nouvelles stratégies de trading
8.2 Modifications sur les règles de gestion des Krabott par rapport à la V2
8.3 Modifications ergonomiques
8.4 Les concours de performance Krabott V3
8.5 Résultats de l’expérimentation Krabott V3
8.6 Etude statistique des résultats de Krabott V3
CONCLUSION
9 Bilan et perspectives
10 Annexes
10.1 Modules Krabott « live »
10.1.1 Annexe aux calculs statistiques Krabott V3
10.2 Faire appel au human computation pour concevoir de nouvelles natures de stratégies de trading, esquisse de Krabott V4
10.3 « Krabott coach » ébauche d’un signal consolidé sur janvier-mai 2013
10.4 Architecture, exploitation base de données des expérimentations
11 Bibliographie

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *