des forces - Chevrollier

la première formation de master (DESS, à l'époque) spécialisée dans les technologies « à ...... pendant la soirée Miss France 2012. ...... d'animaux et qu'on peut placer horizontalement dans la grille. .... Seconde Guerre mondiale » ; « Elles.
4MB taille 28 téléchargements 677 vues
Opérations « art et science » À quoi peuvent servir les collaborations entre artistes et scientifiques ?

19

Un séisme en géologie Il y a 100 ans, la théorie renversante de la mobilité des continents a fait un flop

20

têteschercheuses Actualité et culture des sciences en Pays de la loire

TRIMESTRIEL gratuit - NUMÉRO 21 - printemps 2012

DOSSIER

DES FORCES LOGICIELLES

Derrière la prouesse technologique, découvrez la recherche en informatique

DES FORCES LOGICIELLES

A

Brèves informatiques . . . . . . . . . . . . . page 4 avec Colin de la Higuera, Pierre Cointe, Bernard Stiegler et La chronique conscientifique de Guillaume Mézières

dito

Des codes bouleversants . . . . . . . . . page 6 entretiens avec Gilles Dowek et avec Jean Bézivin

La maîtrise du temps réel . . . . . . . . . page 8 Yvon Trinquet, Patrick Plainchault et Matthias Brun

Un système quasi optimal . . . . . . page 10 Éric Pinson, François de Corbière, Jean-Marc Menaud

Des archipels d’algorithmes . . . . page 12 Adrien Goëffon, Frédéric Lardeux et Frédéric Saubion

Des automates fouilleurs du Web . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

page 

Yannick Estève, Matthieu Vernier

Des services sans fournisseurs . page 14 Pascal Molli

Protéger les données . . . . . . . . . . . page 15 Carine Bernault, Jeanpierre Guédon et Pierre évenou

Des interfaces de connaissance . page 16 Pascale Kuntz-Costerec, Yann Chéné et David Rousseau

Progrès ergonomiques . . . . . . . . . . page 18

Actualités régionales . . . . . . . . . . . . page 19

© www.ohazar.com

Christophe Choquet, Émilie Loup-Escande et Olivier Christmann

Dossier élaboré grâce aux éclairages des auteurs et de Bénédicte Geffroy-Maronnat et Anne-France Kogan (École des mines de Nantes), Frédéric Benhamou, Béatrice Daille et Patrick Le Callet (Université de Nantes), Sébastien Lagrange et Paul Richard (Université d’Angers), et Simon Richir (Arts et métiers ParisTech-Angers)

La culture scientifique s’entoure d’artistes

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Un séisme en géologie . . . . . . . . . .

2

20

page 

Histoire de science, par Philippe Le Vigouroux

Jeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 21 Agenda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 22

La radio Prun’ (92 FM à Nantes), dans son « Labo des savoirs » à 19 heures, proposera en avril une émission avec des interviews d’auteurs de ce numéro. Les podcasts de ses émissions sont téléchargeables sur www.prun.net

Retrouvez sur le site Couverture : © Paper Boat Creative / Stone / Getty Images  vignettes : © lunamarina / Fotolia.com (à gauche) ; © Graphies.thèque / Fotolia.com  Frise : © S. John / Fotolia.com

é

© Lasse Kristensen / Fotolia.com

n°21

www.tetes-chercheuses.fr les articles de ce numéro et des numéros précédents avec des documents et des liens complémentaires ainsi que la possibilité de poser vos questions.

têteschercheuses Université de Nantes, bâtiment IHT, rue Christian-Pauc, 44300 Nantes. Magazine trimestriel fondé par l’Université de Nantes et Olivier Néron de Surgy. Directeur de la publication : Jacques Auxiette ; codirecteur : Marc Farré. Coordination : Stéphane Farneau et Fabrice Arnault. Conception, édition, rewriting, iconographie : Olivier Néron de Surgy. Collaboration éditoriale : Julie Danet. Maquette, mise en page : RC2C (La Rochelle). Illustrations : Ohazar et RC2C. papier recyclé et Impression : imprimerie des Hauts de Vilaine (Châteaubourg, 35). écolabellisé à 100 % Dépôt légal : avril 2007. ISSN :  1954-1872. Comité de pilotage : Yves Thomas (président du comité), Denis Bouget et Jacques Girardeau (Université de Nantes) ; Jean-Yves Buzaré (Université du Maine), Patricia Carré (Région des Pays de la Loire), Jean-Louis Ferrier (Université d’Angers), Jean-Luc Gaignard (Inra Angers-Nantes), Jacques Le  Pendu (Inserm-Nantes) et Jean-Paul Pacaud (Rectorat de l’académie de Nantes). Comité de rédaction : Jean-Noël Hallet (président du comité), Fabien Bacro, Sabine Constant, Catherine Cuenca et Aurore Marcouyeux (Université de Nantes) ; Véronique Barret, Régine Cance, Philippe Deniaux et Marie-Lise Fosse (Rectorat de l’académie de Nantes) ; Jean-François Bouhours (Inserm/Université de Nantes), Jean-Pierre Jandot (Terre des sciences, Angers), Guillaume Mézières (Le Labo des savoirs) et Luc Remy (Muséum de Nantes). La rédaction remercie les participants pour leurs aimables prêts d’images ainsi que Michel Ruchaud (bibliothèque de l’Université de Nantes) pour sa précieuse assistance.

L’informatique, avec notammen t l’ensemble de concepts et de technologies désigné par « le Web », est à la fois source et vecteur de gran ds bouleversements au sein de nos sociétés. Paradoxale ment, il est difficile, pour la plupart de nos contem porains, de saisir ce qu’est la recherche en informa tique. Il s’agit d’une activité scientifique, alors que l’inf ormatique est plutôt perçue comme une technologie  ; on tend à penser que son objet est l’ordinateur, ma is comme le disait Edsger  Dijkstra, l’un des pionnier s de la discipline, l’informatique n’est pas plus la scie nce des ordinateurs que l’astronomie n’est celle des téle scopes. Les objets de l’informatique sont en majorité immatériels : information, algo rithme, logiciel... On les manipule par des représenta tions symboliques, celles de la logique mathématiqu e et des langages de programmation ou de mo délisation. Une fois « implantés » et « exécutés » au cœur de systèmes informatiques, ils influent sur notre vie, parfois de manière critique (commandes de vol, opérations financières, vote électronique, etc.) ; il faut donc maîtriser leur complexité, par exe mple en prouvant qu’ils respectent des exigenc es de sûreté de fonctionnement ou de protect ion de la vie privée, ou en montrant qu’un calcul « d’aide à la décision » est pertinent. Après l’appropriation de la tech nologie informatique par la plupart des activités scie ntifiques, l’impact des capacités d’abstraction, de modélisation et d’analyse rigoureuse de l’inform atique théorique va devenir majeur sur ces activités mêmes. Les enjeux de la discipline, dont le présent flor ilège de recherches menées dans notre région esq uisse la diversité, justifient de combler son abs ence dans le tronc commun de l’enseignement seco ndaire, un manque qui constitue une autre raison de sa méconnaissance. Frédéric Benhamou, Professeur à l’Univer sité de Nantes, chercheur au Lina (Université de Nantes/École des mines de Nantes/CNRS), directeur d’At lanstic, fédération de recherche en sciences et technolo gies de l’information de la communication des Pays de la Loire (FR CNRS 2819), et Olivier Néron de Surgy, réda cteur en chef

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

s

ommaire

53

Brèves informatiques

CÔTÉ philo

DES FORCES LOGICIELLES

Une révolution par la Toile

Une discipline à installer

L’

© www.ohazar.com

C

« informatique et sciences du numérique », qu’il est question d’introduire aussi au collège, voire avant. Cependant, l’absence de formation des étudiants au métier de professeur d’informatique est un frein à cette entreprise. Un palliatif consiste à demander à des professeurs de mathématiques ou de physique, utilisateurs avertis, d’assurer ce nouvel enseignement. Mais, malgré la bonne volonté ou la passion de ces enseignants, n’est-ce pas un peu comme demander à un amateur de bonne chère d’enseigner la cuisine ? Celui-ci s’inspirera de manuels de cuisine, mais enseignera-t-il vraiment la cuisine ? •

© Andrey Prokhorov / iStockphoto

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

4

iel ! Ce sont les machines, les machines divines, qui nous crient ‘‘en avant’’ en langue de savant », chantait Guy Béart en 19691. Les nouveaux usages des technologies numériques et de leurs appareils de communication mobiles modifient la façon dont le grand public perçoit les ordinateurs : ces derniers sont de plus en plus banals et consubstantiels à la vie quotidienne mais ne sont pas pour autant mieux connus, et le plaisir pris à pratiquer l’informatique pour programmer une machine2 s’est raréfié au profit de l’usage de services logiciels accessibles sur Internet. L’inégalité des réactions des médias aux disparitions rapprochées, en octobre 2011, de trois grands pionniers de l’informatique est symptomatique du changement intervenu dans l’appréhension de ce domaine à la fois scientifique, industriel et culturel : si la contribution de Steve Jobs, cofondateur d’Apple, à la diffusion de l’ordinateur individuel (le « Mac ») puis de petits objets

Bernard STIEGLER, Professeur de philosophie à l’Université technologique de Compiègne, fondateur et directeur de l’Iri, Institut de recherche et d’innovation au centre GeorgesPompidou (Paris), Président du groupe de réflexion philosophique Ars industrialis, Association internationale pour une politique industrielle des technologies de l’esprit

Colin DE LA HIGUERA, Professeur à l’Université de Nantes, directeur adjoint du Lina, Laboratoire d’informatique Nantes-Atlantique (Université de Nantes/ École des mines de Nantes/CNRS) et Président de Specif 1. mathématicien anglais qui a formalisé les concepts d’algorithme et de calculabilité. Cf. http://interstices.info/jcms/c_5723/alan-turing-du-calculable-a-lindecidable 2. Société des personnels enseignants et chercheurs en informatique de France : www.specif.org 3. informaticien et académicien français 4. Cf. glossaire page 16.

Des langages clés « C

y avoir d’issue possible à la crise actuelle sans que s’étende la reconstruction des savoirs et des communautés de savoirs qui se constituent à travers les réseaux numériques, dont le logiciel libre et l’encyclopédie Wikipedia sont les exemples les plus connus, et qui se répandent dans tous les secteurs économiques à travers une « économie de la contribution ». Cette économie rompt avec le modèle « prolétarisant » du consumérisme, qui provoque la perte de savoir, la déqualification et le déclassement •

© www.ohazar.com

omme toute science, l’informatique a ses règles, ses génies (on fête le centenaire de la naissance d’Alan Turing1 cette année), ses prix internationaux, ses sociétés savantes... En France, l’association Specif2 organise des colloques depuis plus de 25 ans, fédère de nombreuses énergies, contribue au développement de la discipline et donne un cadre pour discuter de ce développement dans les laboratoires de recherche et les établissements d’enseignement. Elle décerne chaque année un prix de thèse, le prix Gilles-Kahn3. Un coup d’œil jeté sur les thèmes des travaux lauréats permet de mesurer l’importance et la richesse de la discipline : les plus récents ont influencé le développement de « logiciels sûrs » (fiables), la modélisation de la musique, l’apprentissage artificiel, la modélisation du vivant, l’imagerie médicale... L’informatique est pourtant une science jeune, qui se cherche ; son statut de science n’est d’ailleurs pas encore acquis. L’utilisation quotidienne d’outils informatiques, de plus en plus précoce (des enfants apprennent à utiliser Internet ou une tablette graphique avant de savoir lacer leurs chaussures), laisse croire qu’on peut en acquérir les concepts fondamentaux par une pratique fréquente... comme si l’on devenait cuisinier en mangeant ou musicien en écoutant de la musique ! Cependant, la compréhension de ces concepts est aussi indispensable que ceux des autres disciplines : information, code, algorithme4, langage, calcul, complexité, etc. Certains de ces termes sont partagés avec les mathématiques, la biologie, la linguistique... d’autres ne prennent tout leur sens que par une culture informatique. C’est pourquoi de nombreux spécialistes, et notamment Specif, ont demandé que cette science soit abordée au lycée. Tel sera le cas dès la rentrée 2012, avec la spécialité

impact du Web est social, économique, Ces changements se produisent au niveau politique, existentiel, psychologique, planétaire à un rythme effréné et dans un épistémologique... il est total. Le Web contexte de crise économique, politique, transforme radicalement les espaces et les morale, esthétique et existentielle qui résulte temps publics aussi bien que privés – et il d’un effondrement du modèle industriel altère en profondeur les rapports entre public issu de l’opposition entre production et et privé. Sur lui se réalise une nouvelle forme consommation. de ce que le philosophe Gilbert Simondon Le Web fonctionne tout à fait en dehors nommait processus d’individuation de cette opposition  : il est fondé sur psychique et collective : un individu se forme la contribution de tous, volontaire ou et se transforme toujours à la fois irréfléchie, et, dans la mesure où il psychiquement et socialement, c’estredimensionne les espaces et les à-dire collectivement. Nouveau temps publics et privés, cette support de mémoire artificielle, transformation affecte peu le Web est le nouvel espace de à peu toutes les activités cette « transindividuation ». économiques et sociales : Comme autrefois l’écriture, il le Web est porteur d’un est la surface où convergent changement de modèle l’individuation psychique et industriel. Il ne semble pas l’individuation collective. Bernard Stiegler

communicants et finalement cultes (les téléphones et tablettes intelligents) a été abondamment commentée, en revanche très peu a été dit, donc a fortiori retenu, de John  McCarthy (lauréat du prix Turing en 1971) et de Dennis  Ritchie (idem en 1983), créateurs, entre autres, des langages de programmation C (pour les systèmes d’exploitation) et Lisp (pour la programmation dite fonctionnelle)3. Ces deux langages ont pourtant joué un rôle crucial dans le développement de l’informatique actuelle, en particulier dans celui des produits de la marque à la pomme ! Le constat d’une distanciation progressive des étudiants et des ingénieurs en informatique par rapport à la maîtrise du fonctionnement d’un ordinateur et, plus généralement, à celle des architectures informatiques, invite à rappeler une impérieuse nécessité pour ces acteurs de l’innovation présents ou futurs : celle de comprendre à la fois les paradigmes de programmation (les grands principes ou modèles de la discipline) et les pouvoirs

d’expression des langages utilisés, afin de les renouveler. La mise sur le marché du dernier langage foncièrement « novateur », Java, remonte à 1995 ; cette relative ancienneté est un signe de qualité, mais la croissance toujours plus forte des besoins en informatique et l’impact du Web appellent à élargir les capacités à concevoir de nouveaux langages de programmation • Pierre COINTE, Professeur à l’École des mines de Nantes, directeur du Lina (Université de Nantes/École des mines de Nantes/CNRS) 1. dans sa chanson Le grand chambardement 2. Structure et interprétation des programmes informatiques, H. Abelson et G. Sussman (Interéditions, 1989) 3. Encyclopédie de l’informatique et des systèmes d’information (Vuibert, 2006)

La chronique conscientifique

L’histoire à grande vitesse Karl Marx disait des révolutions qu’elles sont les locomotives de l’histoire. Un événement comme celui de l’expansion de l’informatique à toute une société peut bouleverser chaque existence en isolant l’instant présent de son passé, monde d’avant dont les liens se défont à mesure que l’on s’enfonce plus loin dans l’après. À bord du train, le paysage se brouille, et avec lui de nombreux repères ; l’histoire s’accélère. Comment penser autrement qu’en termes de vitesse cette révolution industrielle et industrieuse que fut l’installation de l’informatique et son cortège d’automatisations transporté dans tous les domaines du quotidien ? La modernité voit ainsi se rompre l’espace-temps dans lequel s’implantait l’histoire. Il suffit de regarder la vitesse inhumaine des transactions financières pour constater que le temps de la réflexion humaine est pris de court par le temps réel de l’informatique. Certes, l’expérience d’un changement de vitesse historique n’a pas attendu la révolution numérique : Jules Verne et Rudyard Kipling ont pu, à leur époque, percevoir une accélération au rythme de la machine à vapeur ; leur temps était déjà celui d’une rupture de cadres traditionnels. L’informatique serait alors sur la voie d’un large mouvement naturel d’accélérations

historiques. Mais cette révolution n’est-elle que cela, l’allegro de la symphonie du progrès technologique ? Comme jadis à propos de l’électricité, comment comprendre, avec si peu de recul, l’impact de l’informatisation sur la sociabilité, sur le travail, sur les besoins, sur les désirs, sur la pensée et sur la notion du temps elle-même ? L’informatique est-elle neutre ? L’ordinateur, Internet et l’informatisation du monde changent-ils l’Homme ? Faute de réponses définitives, ces phénomènes historiques et cette impression d’accélération contraignent les passagers à expliquer « l’ère du temps » à travers des concepts flous mais efficaces, comme ceux « d’époque » ou de « génération », compatibles avec la compréhension du culte du chat et celle de la culture du narcissisme technophile. Tâchons de suivre l’histoire à son nouveau rythme, pour mieux entrer dans un nouveau monde d’automatismes et de virtualités. Parlant de locomotives, il faudrait admettre que l’histoire évolue sur des rails, qu’elle possède une finalité ou tout du moins une direction. Mais, à l’instar de l’informatique aujourd’hui, l’histoire a plutôt des allures de nuage aux contours incertains et aux déplacements peu prévisibles • Guillaume MéZIèRES

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

DOSSIER

5

DOSSIER

Prenons du recul

DES FORCES LOGICIELLES

dS ON

© Inria

et avec Jean BÉZIVIN Professeur émérite à l’Université de Nantes, ex-responsable de l’équipe AtlanMod (Inria/École des mines de Nantes) et consultant en modélisation logicielle

directeur scientifique adjoint d’Inria1, en charge du domaine « Algorithmique, programmation, logiciel et architectures », consultant auprès du National Institute of Aerospace de la Nasa (États-Unis).

Des codes

Comment caractériser l’informatique ?

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Gilles Dowek  : L’informatique est née de la rencontre de deux démarches. La première est la construction de machines, comme les métiers à tisser, puis les machines de traitement des données de recensement, celles qui chiffrent ou déchiffrent des messages, etc. La seconde, issue de la logique mathématique, essaie de savoir ce qu’il est possible de calculer ou ce qu’il n’est pas possible de calculer au moyen d’un algorithme. Depuis ses débuts, l’informatique a ce double aspect scientifique et technique, visant à la fois à comprendre et à construire.

6

Elle a de plus un statut inédit : comme les mathématiques, elle étudie des objets abstraits (nombres, listes, graphes, etc.), mais comme les sciences expérimentales, sa méthodologie repose sur une interaction avec des objets concrets : les ordinateurs. C’est principalement cette nouveauté qui est à l’origine de tensions dans sa définition et dans sa reconnaissance. Dans la classification des sciences sur laquelle repose l’organisation du CNRS, elle fait partie de la physique appliquée ; dans beaucoup d’universités, elle est rattachée aux mathématiques. L’informatique n’est pourtant ni une branche de la physique ni une partie des mathématiques : elle est une tout autre science, et c’est seulement en cette année 2012 qu’elle va devenir une matière de l’enseignement secondaire2. Avec les autres concepteurs du programme de cet enseignement, j’ai proposé de structurer ce dernier autour de quatre concepts de base, d’importances égales, et qui me semblent définir l’ensemble de la discipline : information, langage, machine, algorithme. Cet enseignement est devenu nécessaire pour préparer les lycéens à leurs futurs métiers : ingénieurs, techniciens, juristes, médecins... tous ont besoin désormais de comprendre un peu d’informatique. Il demande cependant des innovations pédagogiques : on ne peut apprendre l’informatique en écoutant passivement un professeur, sans concevoir et écrire soi-même des programmes. C’est pourquoi nous proposons une pédagogie centrée sur la réalisation de projets.

Qu’est-ce que l’informatique a apporté aux sciences ? G. D. : En apportant une puissance de calcul nouvelle aux autres sciences, elle a d’abord permis de résoudre des équations qui décrivent

des phénomènes physiques et qu’on ne savait pas résoudre à la main ; ces équations sont alors devenues prédictives, et non plus seulement descriptives. Puis l’on s’est aperçu qu’elle permet de modéliser, par des algorithmes, des phénomènes complexes qu’on ne sait pas décrire par des équations, en chimie, en urbanisme, en linguistique, en biologie... par exemple la structuration tridimensionnelle d’une protéine. Certains algorithmes sont eux-mêmes capables de produire des modèles. Ainsi, grâce à l’analyse statistique automatisée d’un grand nombre de textes, un logiciel peut découvrir des règles de grammaire ou d’usage qui ne lui ont pas été fournies et qui n’ont peut-être même jamais été formulées. L’augmentation de la capacité de traitement de données est source de nouveaux moyens d’investigation, outre de nouvelles applications technologiques.

L’usage d’outils informatiques devient-il excessif ? G. D. : L’informatisation des activités et des systèmes rend de nombreux services, notamment dans la réalisation de tâches complexes ou fastidieuses ; elle n’est pas excessive dès lors qu’elle est décidée par les gens eux-mêmes. En revanche, sa rapidité actuelle pose des problèmes auxquels nous sommes peu préparés, en matière d’organisation du travail, de sécurité, de sûreté de fonctionnement... Quant à ce dernier problème, il est très difficile de s’assurer, par exemple, de l’absence de bug dans les centaines de milliers de lignes de code que comporte le programme du pilote automatique d’un avion ; pourtant les accidents sont rarissimes, et, de ce fait, la remise en question de l’utilisation d’un tel système comme substitut de l’action humaine ne paraît guère justifiée. Les travaux qui s’attachent à prouver l’absence d’erreurs dans des programmes, des algorithmes et même des démonstrations mathématiques font l’objet d’une mobilisation croissante. Ils représentent aujourd’hui près de 10 % de l’activité des grands instituts de recherche comme Inria1 et trouvent de nombreuses applications notamment dans les domaines du transport, de la santé, de l’énergie, des banques et des assurances • 1. Institut national de recherche en informatique et automatique 2. Cf. Une discipline à installer, page 4.

bouleversants Quelles grandes lignes le « développement logiciel » a-t-il suivi ?

Comment ce développement s’oriente-t-il à présent ?

 Jean Bézivin  : Les premiers logiciels ont été programmés avec des « langages d’assemblage » très proches de la machinerie physique des ordinateurs (registres, mémoire, etc.) mais vite complétés par des langages de modélisation, à commencer par les organigrammes, qui facilitent la conception et la compréhension des programmes.

 J. B. : Le logiciel est devenu une matière première majeure, et les enjeux de la recherche-développement (R&D) en informatique logicielle sont à la mesure du besoin massif de nouvelles applications dû à l’essor de nouveaux équipements (tablettes et smartphones, principalement) d’usages professionnels, individuels, collectifs, familiaux, ludiques... Ces enjeux sont aussi liés à l’importance croissante des capacités de traitement ou de visualisation de gros volumes de données, et notamment de « données ouvertes » (open data), accessibles à tous. Dans ce domaine encore, le tissu industriel nantais, déjà très dynamique en celui des « logiciels ouverts » (open source), est en train de prendre une avance significative, aidée par des initiatives comme Libertic1. Dynamisé par les réseaux et les activités des « cantines numériques » (où se rencontrent des acteurs du secteur) et d’associations comme Ouest Numérique2, il saura probablement prendre « les bons risques » en matière d’innovation, alors que la production logicielle française, jadis en pointe, décline depuis le début des années 80 par rapport à celles d’autres pays industrialisés et des pays dits émergents.

Ces deux types de langage ont évolué en parallèle. Au début des années 70, des leaders de l’informatique scientifique, comme Tony Hoare, Edsger Dijkstra et Niklaus  Wirth, ont proposé des améliorations des langages de programmation, telles que le remplacement de l’instruction go to (aller à telle ligne de code), encore très proche de la machinerie, par des instructions « structurées », comme tant que... répéter. Cette première montée en abstraction a provoqué l’apparition de diverses méthodes de modélisation (SADT, DFD, Merise, etc.), plus axées sur la gestion des données que sur la maîtrise des séquences d’instructions. Avec la « programmation par objets » apparue dans les années 80, la montée en abstraction des langages de programmation s’est appuyée sur une vision intégrée des données et des opérations à effectuer sur elles ou avec elles (un objet consistant dans une structure de données et des traitements associés). L’Université de Nantes a joué une carte internationale dans ce contexte en créant la première formation de master (DESS, à l’époque) spécialisée dans les technologies « à objets » ; de nombreux cadres informaticiens de l’agglomération nantaise en sont issus. Cette évolution technologique majeure, source de langages de programmation très usités comme Java, a eu un impact fort sur les moyens de modélisation. Ainsi les méthodes telles que Merise ont perdu de leur importance au profit d’UML (Unified Modeling Language) dans les années 90. Les nouveaux langages n’ont cessé de se multiplier depuis lors, préfigurant une nouvelle génération de technologies de développement logiciel. Une cinquantaine de langages de programmation (Scala, F#, Kotlin, etc.) sont aujourd’hui susceptibles de prendre la place de Java. Dans la plupart d’entre eux, les concepts de fonction et de processus sont plus importants encore que celui d’objet.

La révolution qui s’annonce à travers le foisonnement actuel des outils d’aide au développement logiciel est celle des « langages dédiés » (DSL, pour Domain-Specific Languages). Plutôt que de programmer ou de modéliser avec un seul langage généraliste, l’idée est de recourir à des langages complémentaires, spécialisés par domaine ou par tâche, d’utilisation simple, et permettant ainsi de mieux répartir la charge de travail entre informaticiens professionnels et utilisateurs occasionnels. De tels langages existent déjà mais il faut les améliorer, les étendre, les standardiser. Il s’agit de reproduire à très grande échelle l’apport d’outils comme Excel (dont le précurseur fut Visicalc, en 1979) par lequel l’utilisateur développe lui-même l’application comptable dont il a besoin : les DSL permettraient d’élaborer les fonctionnalités du logiciel visé en s’appuyant sur les concepts, les types de données et les méthodes propres à tel ou tel domaine d’activités, puis de générer automatiquement des codes exécutables par les machines. Cette perspective, pleine de défis nouveaux pour les jeunes informaticiens, mobilise déjà de nombreuses énergies dans les cellules R&D d’entreprises régionales • 1. Cf. http://libertic.wordpress.com/ 2. Cf. http://reseaudescantines.org/ et www.ouest-numerique.com

© Vetta stock photo / iStcokphoto

Gilles DOWEK

propos recueillis par O.N.d.S.

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Entretiens avec

7

La maîtrise du temps réel

DES FORCES LOGICIELLES

Une modélisation plus économe

Des contrôles qui ne traînent pas

L’élaboration d’un outil générique de conception et de vérification de systèmes temps réel devrait simplifier et accélérer leur développement. H par Matthias BRUN et Patrick PLAINCHAULT, enseignants et respectivement chercheur et directeur des recherches à l’Éséo, École supérieure d’électronique de l’Ouest (équipe Trame, Transformation de modèles pour l’embarqué ; http://trame.eseo.fr)

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Nous travaillons notamment sur les calculateurs « contrôle moteur » de véhicules à essence. Ces calculateurs doivent contrôler la position du papillon motorisé (qui remplace le carburateur) et le déclenchement de la combustion du carburant dans chaque cylindre à partir de mesures de la position de la pédale d’accélérateur et de la vitesse de rotation du moteur, entre autres, et cela afin notamment de minimiser la consommation d’essence et la pollution.

8

…mais aussi énergétiques L’essor de l’informatique embarquée a intensifié ces activités de recherche, dont les avancées récentes les plus remarquables portent en particulier sur la conception et la mise en œuvre de nouvelles architectures matérielles ayant des processeurs à plusieurs cœurs (capables d’exécuter simultanément des calculs différents), qui augmentent les capacités de gestion de systèmes complexes. Cependant, une autre contrainte que celle du temps d’exécution doit être de plus en plus souvent intégrée : celle de la consommation d’énergie, par exemple dans les téléphones mobiles et dans les réseaux de capteurs sans fil. En collaboration avec le Commissariat à l’énergie atomique, nous venons de développer un logiciel de simulation du comportement d’un ensemble complexe de tâches exécutées sur une architecture multicœur novatrice. Plusieurs caractéristiques rendent ce logiciel lui-même innovant dans le domaine de la simulation temps réel : il a été développé avec un langage (Java) qui le rend exécutable sur différentes plateformes

Yvon TRINQUET, Professeur à l’Université de Nantes, chercheur à l’Irccyn, Institut de recherche en communications et cybernétique de Nantes (École centrale de Nantes/Université de Nantes/École des mines de Nantes/CNRS), responsable de l’équipe « Systèmes temps réel »

T1

0

5

10

15

20

25

5

10

15

20

25

temps (ms)

T2

0 T3

0

5

10

15

20

25

© RC2C. Source : Irccyn-STR

Les travaux de recherche auxquels participent notre équipe portent sur divers thèmes : la conception de ces RTOS ; des langages adaptés à l’analyse des architectures logicielle et matérielle de l’application visée ; des algorithmes d’ordonnancement qui garantissent a priori les contraintes temporelles ; des techniques de modélisation de l’application qui permettent, avant d’engager des essais sur un prototype, de vérifier ses propriétés par des méthodes formelles (mathématiques) ou par des simulations ; la sûreté de fonctionnement de l’application (la gestion des pannes éventuelles).

informatiques ; l’extension de ses fonctionnalités est facilitée par sa conception modulaire, qui sépare notamment l’ordonnanceur des autres éléments du simulateur ; grâce à un modèle physique du processeur, il calcule l’énergie consommée par les cœurs ; il permet d’analyser les possibilités de gestion optimale de la tension électrique d’alimentation des cœurs et de leurs fréquences de fonctionnement •

Simulation d’exécution de trois tâches (T1, T2, T3) sur un processeur à deux cœurs (ces tâches étant répétées). Une flèche montante indique l’activation de la tâche ; une flèche descendante indique la fin du délai d’exécution. On constate que T3 ne respecte pas sa première contrainte temporelle. L’ordonnancement doit donc être corrigé.

Les dispositifs de mesure (cf. la figure) devaient être enterrés pour ne pas être vus des conducteurs et ainsi ne pas influencer leurs comportements. Cette contrainte a suscité la conception d’un système innovant, comportant différents types de capteurs (boucles électromagnétiques pour mesurer la vitesse, capteurs résistifs ou à fibres optiques pour le positionnement latéral)3 dont les données étaient prétraitées par l’électronique enfouie puis collectées par l’unité superviseur du SETR qui en faisait une synthèse quotidienne, télétransmise à notre laboratoire pour y être analysée conjointement à des données météorologiques. Un logiciel temps réel et une infrastructure de transfert de données ont été spécialement développés pour ce projet. Les contraintes temporelles étaient principalement liées au cas dans lequel un véhicule en suit un autre de près ; l’acquisition des données devait être rapide, tandis qu’il faut du temps notamment pour prendre en compte l’incertitude des mesures physiques des capteurs. Le développement de ces derniers a fait

superviseur

sommet de côte 410 m boucle électromagnétique

420 m capteur résistif ou à fibres optiques

l’objet d’une thèse de doctorat4 et d’un brevet, et la modélisation de leurs comportements, avec celle des autres composantes du système, a permis d’effectuer des simulations de l’ensemble du SETR pour vérifications et ajustements avant sa mise en œuvre.

La voie de la métamodélisation La modélisation ne permet pas seulement d’assurer le bon fonctionnement a priori des SETR : elle peut aussi servir à les développer selon des schémas préétablis pour éviter, à des fins économiques, de reproduire des travaux réalisés lors de précédents projets. Cette stratégie de réutilisation, intégrée dans une « ingénierie dirigée par les modèles », nécessite que les applications temps réel et leurs supports d’exécution matériels (processeurs, mémoires, etc.) ou logiciels (systèmes d’exploitation) soient modélisés indépendamment ; lors de la conception d’un SETR, une phase de « déploiement d’application » consiste à « fusionner » le modèle de l’application logicielle correspondante avec ceux de ses supports d’exécution, pour procéder aux vérifications. Un autre travail de thèse5 a proposé un langage de modélisation (un « métamodèle ») des supports d’exécution logiciels temps réel et un algorithme générique de déploiement d’application sur ces supports. Un prototype d’outil logiciel recourant à ce langage et à cet algorithme permet de développer un SETR en suivant un processus

dans lequel les différents spécialistes (de la modélisation d’applications temps réel ou des supports d’exécution) peuvent collaborer, quels que soient les supports d’exécution logiciels du SETR. Cet outil a été élaboré grâce à une analyse des connaissances et des activités respectives de tels spécialistes puis intégré dans un atelier logiciel6 pour en valider les concepts. Son expérimentation entreprise dans trois projets distincts a montré, au moyen d’une comparaison avec des méthodes classiques, qu’il permettait de gagner du temps de développement grâce à la réutilisation des différents modèles développés et à la simplicité qu’offre un métamodèle pour décrire des supports d’exécution, et qu’il facilitait à la fois le déploiement et les activités de vérification. La généralisation de cette métamodélisation aux supports matériels est en cours • 1. dans le cadre du programme Sari, Surveillance automatisée des routes pour l’information des conducteurs et des gestionnaires. Cf. http://prac2010. free.fr/sari/index.php?page=enjeux&lg=fr et http:// hal.archives-ouvertes.fr/docs/00/54/58/72/PDF/VIZIR_ livrable_1_5_1.pdf 2. Le projet a permis de mettre évidence l’effet positif de ces bandes rugueuses et celui d’un accotement revêtu. 3. Cf. http://fr.wikipedia.org/wiki/Syst%C3%A8me_de_ transport_intelligent 4. Réseaux de capteurs coopératifs dédiés aux suivis de trajectoire de véhicules, S. Aubin (Institut national polytechnique de Toulouse, 2009) 5. C  ontribution à la considération explicite des platesformes d’exécution logicielles lors d’un processus de déploiement d’application, M. Brun (ÉCN, 2010) 6. TopCased (www.topcased.org). Un atelier logiciel est un logiciel qui sert à développer des logiciels.

CPU 1

MOTS D’INFORMATIQUE 0

5

10

15

20

25

CPU 2

0

5

10

15

20

25

Répartition de l’exécution des tâches T1, T2 et T3 sur les cœurs CPU 1 et CPU 2

© RC2C. Source : Irccyn-STR

L’exécution d’une application temps réel s’appuie sur un système d’exploitation spécifique, dénommé RTOS (Real-Time Operating System). Le RTOS gère l’exécution en parallèle d’un ensemble de « programmes coopérants », communiquant les uns avec les autres et correspondant à des tâches synchronisées. Pour respecter les contraintes temporelles de ces tâches, il utilise un « algorithme d’ordonnancement » (ou ordonnanceur), qui détermine les instants et les durées d’allocation du ou des processeurs à l’exécution des différentes tâches.

4m

RD961

CPU (Central Processing Unit) : unité centrale ou « cœur »

à l’utilisateur de modifier les paramètres de ces programmes.

système d’exploitation : ensemble de programmes permettant à un ordinateur de piloter ses composants matériels pour exécuter des logiciels et de piloter des matériels périphériques (écran, clavier, imprimante, etc.). Il permet aussi

compilation : transcription d’un programme d’instructions codées dans un langage informatique en une séquence d’instructions exécutables par l’ordinateur. Les compilateurs (programmes de compilation) vérifient en général la cohérence des instructions et la limitation du nombre d’opérations à effectuer.

d’exécution des instructions d’un programme, aussi nommée processeur

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

L’informatique « embarquée » et « temps réel » opère au cœur de systèmes complexes et souvent mobiles (une voiture, un avion, un téléphone portable...), et les programmes qu’elle développe doivent être exécutés sur un ou plusieurs calculateurs en respectant des contraintes temporelles parfois très strictes. À titre d’exemple, le calculateur qui gère le freinage d’un véhicule doit réagir dans un délai de l’ordre de 20 millisecondes après l’appui sur la pédale de frein ; si, dans ce calculateur, l’exécution des programmes dépasse ce délai, elle peut créer un danger pour le véhicule et ses occupants.

T

ous les systèmes embarqués temps réel (SETR) ne se trouvent pas dans des objets mobiles : certains sont enfouis dans des équipements fixes. L’un des SETR sur lequel nous avons récemment travaillé a été en partie installé sur une portion de la RD961, route du Maine-et-Loire, dans le cadre du projet Vizir1. Ce dernier visait, d’une part, à connaître les facteurs responsables de la tendance observée, chez les conducteurs, à s’écarter du milieu de leur voie en sommet de côte (le plus souvent vers la ligne médiane) et, d’autre part, à tester des aménagements (bandes d’alerte sonore sur la ligne médiane, accotement stabilisé) destinés à réduire ce comportement dangereux.2 © www.ohazar.com

Des contraintes non seulement temporelles...

© RC2C. Source : Éséo-Trame

DOSSIER

9

Optimisation et économies

Un problème relevant de la recherche opérationnelle (cf. Une recherche d’efficacité) nous a été posé afin de satisfaire à un objectif économique. Il s’agissait de minimiser le coût logistique du transport national en routant les flux dans les délais impartis, en arbitrant les différents modes de transport disponibles et en affrétant des moyens routiers adaptés (en nombre par mode et en délai) tout en respectant les capacités de traitement des PIC et des hubs. Nous avons décomposé le problème en trois niveaux (collecte, routage inter-hubs,

distribution), dans lesquels chaque « segment », qui est soit un transit par une PIC suivi d’un hub (collecte) ou précédé d’un hub (distribution), soit une liaison inter-hubs, peut faire l’objet d’un ordre de transport (OT) défini par une date de départ et par un mode et un volume de transport qui déterminent un coût logistique élémentaire. Ces dates, modes et volumes sont ajustables, et une solution est un ensemble d’OT chaînés dans le temps et dans l’espace qui minimise le coût logistique total d’un volume de courrier fixé au départ des différentes PIC du réseau (l’ensemble des OT possibles est alors colossal : plusieurs dizaines de millions, pour une centaine de PIC et hubs et quelques 5 000 flux effectifs). Outre la décomposition en trois niveaux, notre stratégie a notamment

consisté à exclure du calcul des ensembles d’OT n’ayant aucune chance d’intervenir dans une solution proche de l’optimum. L’application de techniques mathématiques d’optimisation a non seulement abouti à une solution convenable en temps de calcul (quelques heures) mais aussi à la démonstration que celle-ci était « sousoptimale » (très proche de l’optimum). Des simulations laissent entrevoir un gain de 5 % par rapport au coût logistique du réseau national actuel, cette estimation restant cependant à consolider par d’autres calculs • Éric PINSON, Professeur à l’Institut de mathématiques appliquées de l’UCO-Angers, chercheur au Lisa, Laboratoire d’ingénierie des systèmes automatisés (Université d’Angers) et responsable du groupement de recherche régional Ligéro

collecte

distribution

sous-réseau de concentration

transport national

sous-réseau de dispersion

segment hub : plateforme de concentration de flux

PIC : plateforme industrielle du courrier

PPDC : plateforme de préparation et de distribution du courrier

PDC : bureau de poste ou plateforme de distribution du courrier

a recherche opérationnelle (RO) est la mise en œuvre de méthodes visant à prendre la meilleure décision possible. Elle s’attaque à des problèmes concrets dans des domaines très divers, comme minimiser un coût financier, gérer un stock ou définir un planning sous un ensemble de contraintes délimitant l’ensemble des solutions admissibles.

après l’autre avec les objets pris dans l’ordre de leur arrivée, en passant à la boîte suivante dès qu’il n’y a plus de place. Une autre heuristique, « First-Fit » (FF), consiste à ranger chaque objet l’un après l’autre dans la première boîte qui convient. FF est ici meilleure que NF, et l’une comme l’autre sont plus efficaces si l’on trie au préalable les objets par ordre d’encombrement décroissant •

Dans ses grandes lignes, elle consiste à modéliser (formaliser mathématiquement) une situation (organisation, phénomène, problème...), à étudier le modèle obtenu afin de lui appliquer une méthode de résolution adéquate, appuyée sur des théories mathématiques, puis à programmer cette méthode sur un ordinateur.

Éric PINSON

Ces situations étant en général complexes, la meilleure solution est souvent trop difficile ou trop longue à calculer. On cherche alors une décision convenable qualitativement et en terme de temps de calcul, au moyen de méthodes dites heuristiques (cf. le glossaire p. 16), qui s’appuient souvent sur une restriction des solutions testées et qui sont, en marge de propriétés mathématiques relatives au problème à résoudre, inspirées par une connaissance, une expérience, une intuition... Pour illustrer cette démarche, considérons un problème de bin packing : ranger un ensemble d’objets d’encombrements connus dans un nombre minimal de boîtes de capacité fixée. Une première heuristique, « Next-Fit » (NF), consiste à remplir chaque boîte l’une

es approvisionnements de la grande distribution connaissent des dysfonctionnements qui, bien souvent, ont une origine logistique (remplissage peu optimal des camions, stockage inadapté...) ou résultent d’un défaut de gestion de l’information (données manquantes, erreur dans une commande ou dans l’identification d’un produit...). Notre groupe de recherche en sciences de gestion participe au projet Milodie1, qui s’intéresse aux types de systèmes d’information (SI) et à la qualité de l’information comme supports d’amélioration de la performance logistique en termes économiques et environnementaux. Dans ce cadre, nous avons étudié l’instauration, par un grand distributeur, de grandes plateformes logistiques, nommées « centres de consolidation et de collaboration » (CCC), entre ses entrepôts et ses fournisseurs. Selon une étude pilote menée en 2008 par ce distributeur, 147 000 kilomètres de livraison ont été économisés en une année grâce aux CCC, soit une réduction d’émission de CO2 évaluée à 121 tonnes, et l’un des fournisseurs a estimé à 5 % son gain économique dû à la réduction des coûts logistiques induite par cette utilisation. Les mécanismes de tels bénéfices restent à éclaircir. Dans un premier temps, des observations et des entretiens permettent de comprendre comment les CCC sont mis en œuvre et quels sont leurs impacts sur les flux de produits et sur la gestion de l’information associée. La transformation consiste essentiellement, pour le distributeur, à tendre les flux, et donc à

ans les centres de données ou datacenters1 sont regroupés jusqu’à plusieurs milliers d’ordinateurs interconnectés par un réseau haut débit. Il a été estimé que ces centres ont consommé, en 2005, 1 % de la production électrique mondiale, et entre 2006 et 2011, selon les prévisions faites en 2007 par l’Agence américaine de protection de l’environnement, la consommation des centres situés aux États-Unis serait passée de 1,5 à 2,5 % de la production électrique américaine !

100 serveur 1

50

50

0 100

2

5

4

7

3

1 objets dans l’ordre de leur arrivée (le chiffre indique leur volume) à ranger dans des boîtes de volume 10

rangement optimal

5 1 4

En complément…

3 7

8 2

10

2

0

1

5 4

7

3

rangement selon NF 1 5

3

2

4

7

8

rangement selon FF

8

100

Site de l’association française de recherche opérationnelle et d’aide à la décision : www.roadef.org À l’échelle régionale, sous l’impulsion de la Région Pays de la Loire, la RO est fédérée depuis 2009 dans Ligéro, groupement de recherche faisant interagir quatre laboratoires angevins et nantais. Cf. www.emn.fr/z-info/ligero/index.php/Accueil

1. « Mutualisation des informations logistique de distribution : effets économiques et environnementaux », un projet financé par l’Ademe et faisant partie du Predit, Programme d’innovation et de recherche dans les transports terrestres : www.predit.prd.fr/predit4/le-predit

Une voie d’économie d’énergie consiste à tirer profit du faible taux d’utilisation (environ 20 %, la plupart du temps) des capacités de traitement des centres de données, souvent surdimensionnées à des fins de sûreté de fonctionnement. L’idée est de répartir les tâches sur un nombre minimal de serveurs, les autres machines étant mises en veille. Ce regroupement est rendu possible grâce à la technique dite « de virtualisation » qui permet d’exécuter simultanément plusieurs tâches sur un même serveur.

100 % CPU

temps (s) 1000

2000

50

8

François DE CORBIÈRE, Maître de conférences à l’École des mines de Nantes, chercheur au Lemna, Laboratoire d’économie Nantes-Atlantique (Univ. de Nantes)

Des centres moins gourmands D

© RC2C, d’après é. Pinson

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Une recherche d’efficacité L

10

© RC2C. Source : Groupe La Poste

L

e réseau national de flux postaux comporte des plateformes industrielles du courrier (PIC) et des hubs. Les flux passent d’un sousréseau de concentration à une PIC où ils subissent un premier tri, puis ils rejoignent une autre PIC où un nouveau tri les injecte dans un sous-réseau de dispersion. Chaque flux, parvenu à une date donnée sur une PIC d’origine, doit être routé dans un délai imparti sur une PIC destinataire. Entre ces PIC, les grandes plateformes que sont les hubs assurent un transport massif et rapide, routier, ferroviaire ou aérien ; le reste du routage est effectué au moyen de camions de capacités plus ou moins grandes. Ces différents modes de transport ont des coûts logistiques fixes ou variables selon le volume transporté.

demander à ses fournisseurs des approvisionnements plus fréquents ou, si possible, de livrer les CCC par camions pleins, ces camions pouvant être multifournisseurs. Elle s’appuie sur une plateforme web qui permet de centraliser et partager les données logistiques, mais qui nécessite, pour les acteurs, une évolution technique et organisationnelle de la gestion de l’information. Dans un second temps, grâce à l’analyse précédente, nous modélisons et programmons des scénarios logistiques dans lesquels on peut moduler l’utilisation des CCC par les fournisseurs, la centralisation des informations logistiques dans le SI, l’automatisation du traitement des commandes et la qualité de l’information (via l’introduction d’erreurs ou de lacunes). Les effets économiques et environnementaux sont ensuite simulés avec une méthode dite multi-agent qui permet d’attribuer à chaque fournisseur virtuel des choix (donc des investissements) particuliers quant au recours au CCC, à un SI centralisé, à l’automatisation du traitement des commandes, etc. Les premiers résultats suggèrent notamment que cette automatisation a des effets bénéfiques, mais ils doivent être complétés pour faire émerger les conditions qui rendent la nouvelle organisation intéressante écologiquement et économiquement pour toutes les entreprises concernées •

100 serveur 2

1000

2000

0 100 serveur 3 50

1000

2000

0

100

100 serveur 4

50

50

0

1000

2000

1000

2000

50

50 0

0

1000

2000

0

Il s’agit d’un problème de bin packing bidimensionnel, les deux dimensions étant la mémoire de travail et la puissance de calcul (des processeurs) disponibles sur les serveurs.2 On peut tenter de le résoudre soit exactement, soit de façon approchée (éventuellement à l’aide d’une heuristique2, une méthode souvent rapide mais qui donne rarement une solution optimale). L’approche utilisée par notre équipe Ascola3 est appuyée sur une solution exacte, dite « de programmation par contraintes ». Il lui correspond un algorithme construit à partir d’une modélisation mathématique du problème, de relations logiques entre les variables et de contraintes portant sur ces variables (des valeurs maximales, notamment). L’algorithme recalcule sans cesse le meilleur placement possible des tâches en fonction de la sollicitation du centre de données. Nous projetons de l’étendre à deux autres dimensions : le débit de communication du réseau de serveurs et l’occupation de la mémoire sur disque • Jean-Marc MENAUD, Maître de conférences à l’École des mines de Nantes, chercheur au Lina, Laboratoire d’informatique Nantes-Atlantique (Université de Nantes/École des mines de Nantes/CNRS)

serveur n°3 arrêté

1000

2000

1000

2000

Taux d’utilisation de quatre processeurs (CPU ; cf. page 9) pour exécuter quatre tâches différentes. À gauche, la répartition n’a pas été optimisée ; à droite, l’algorithme de placement a permis d’éteindre le serveur n°3 pendant la quasi-totalité de l’expérience et de réduire de 25 % l’énergie consommée.

1. qui hébergent des données et des services web. Cf. Des serveurs économes, Têtes chercheuses n°17. 2. Cf. Une recherche d’efficacité (où il n’y a qu’une dimension : la capacité des boîtes). 3. A  spect and Composition Languages (Inria/École des mines de Nantes/Lina). Ce projet a reçu en 2009 le 1er prix de la « croissance verte numérique » (catégorie « enseignement et recherche »). Le logiciel btrCloud auquel il a abouti est aujourd’hui développé au stade industriel par la startup SAS EasyVirt.

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Un service quasi optimal

Une économie de livraisons L

© George Hammerstein / Fancy / Corbis

DES FORCES LOGICIELLES

Lina

DOSSIER

11

Optimisation et apprentissage automatique

Des archipels d’algorithmes P

Quand un groupe aura bien avancé, l’un de ses membres rejoindra l’équipe d’une autre île en lui apportant son résultat. Guy espère que, par ce partage d’expériences, une bonne solution émergera rapidement. Ce principe est à la base de « l’algorithmique en îles », dans laquelle plusieurs algorithmes échangent des informations, tels des éléments de recette, et peuvent ainsi aboutir

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Un crible génomique L’

12

identification de pathologies végétales dues à des bactéries est un enjeu crucial dans un secteur d’activités important pour notre région, mais elle est difficile : une souche bactérienne peut occasionner des symptômes différents d’une espèce à l’autre ou au sein d’une même espèce, et les analyses génétiques classiques sont des processus complexes qui ne donnent pas toujours des résultats précis. Le recours à l’informatique permet toutefois de rechercher des processus d’identification efficaces et économes. Les caractères par lesquels les biologistes peuvent définir une famille de bactéries correspondent à des combinaisons de gènes, mais ils sont variables et si nombreux que le recours à un traitement statistique des données génétiques est nécessaire. Ce traitement permet de dresser un tableau de caractères significatifs pour chaque famille. Lorsqu’on souhaite identifier une bactérie inconnue, il suffirait, en théorie, de tester la présence, dans son génome, de chacun des gènes ainsi répertoriés, puis d’utiliser le tableau pour savoir à quelle famille elle appartient. Or, en pratique, un tel tableau comporte typiquement une centaine de gènes, et les tests étant coûteux, on souhaite limiter fortement le nombre de gènes à déceler. C’est alors que l’informatique intervient efficacement, grâce au développement d’un algorithme d’optimisation : en utilisant une heuristique1, l’algorithme élaboré par notre équipe sélectionne, pour chaque famille connue et parmi la multitude des combinaisons possibles, un nombre minimal de gènes (une dizaine) qui caractérisent cette

à une solution optimale. Cette répartition collaborative du calcul d’une solution à un problème complexe est un gage d’efficacité pourvu qu’on se soit assuré, au moyen de techniques mathématiques, que les algorithmes et leurs interactions respectent des propriétés ad hoc. Bien d’autres problématiques que celle du placement sont concernées. Nos travaux pourraient servir ainsi à améliorer des outils de planning de personnel hospitalier, de planification de la maintenance de centrales électriques, d’identification génétique (cf. Un crible génomique), etc. Les recherches visent aussi à améliorer la méthode elle-même. Par exemple, afin d’accélérer le calcul d’une solution, nous avons élaboré un modèle qui permet d’optimiser l’allocation des ressources de calcul à chacun des algorithmes en fonction de leurs performances respectives • Adrien GOËFFON, Frédéric LARDEUX et Frédéric SAUBION, respectivement Maîtres de conférences et Professeur, chercheurs au Leria, Laboratoire d’étude et de recherche en informatique d’Angers (Université d’Angers) 1. classiquement estimé à 1080. La valeur 9,3 x 10157 correspond à 100! (« factorielle 100 »), c’est-à-dire 1x2x3x…x99x100. 2. pouvant recourir à une heuristique (cf. Une recherche d’efficacité page 10 et le glossaire page 16).

Tritan Boureau

De tels problèmes, dits combinatoires, suscitent l’intérêt et les efforts de chercheurs en informatique depuis des décennies pour mettre au point des techniques de résolution sans cesse plus performantes. Dans le cas présent, différentes stratégies sont envisageables. À partir d’une configuration quelconque, Guy pourrait tenter de progresser seul en échangeant les positions de convives de la même tablée puis celles de convives de tables différentes, mais il risquerait fort de ne pas aboutir à une solution satisfaisante dans le temps dont il dispose. Il décide plutôt de profiter de l’enterrement de vie de garçon du futur marié, dans le golfe du Morbihan, pour mettre à contribution ses amis : il les répartit en groupes dans des îles, chaque groupe ayant pour tâche de résoudre le casse-tête avec une stratégie particulière2.

© Image Source / Getty Images

our le mariage de sa sœur, Guy s’attaque au casse-tête du plan de table. Depuis la dernière réunion de famille, l’oncle Jacques ne veut en aucun cas être à la même table que le cousin Paul ; quant à Marie et Alex, ils ne se quittent plus... Bref, il faut composer avec de telles contraintes, et il y a de quoi s’arracher les cheveux pour placer ainsi une centaine d’invités. A fortiori, le nombre de combinaisons possibles (près de 9,3 x 10157) est très supérieur à celui des atomes dans l’Univers1 !

Feuille de haricot infectée par la bactérie Xanthomonas axonopodis pv. phaseoli famille sans ambiguïté (ou, plus exactement, avec le moins d’ambiguïté possible compte tenu des données génétiques disponibles). Ce résultat va déboucher sur la mise au point d’un kit de diagnostic (puces à ADN) permettant de détecter rapidement la présence d’une bactérie pathogène dans un échantillon de végétaux ou de semences.

Mieux transcrire L

es systèmes de reconnaissance automatique de la parole s’appuient aujourd’hui sur des approches probabilistes : ils associent à une donnée acoustique la séquence de mots la plus probable selon les connaissances dont ils disposent et qui consistent en des modèles statistiques de transcription.1 Ces modèles, construits par apprentissage automatique à partir de données acoustiques transcrites manuellement, peuvent être répartis en trois catégories : les modèles acoustiques, qui attribuent des scores de vraisemblance à des phonèmes2 ; les modèles de langage, qui attribuent des probabilités à des séquences de mots (« bleu marine » est plus probable que « bleu marin ») ; les dictionnaires de prononciation, qui font le lien entre modèles de langage et modèles acoustiques.

Produire manuellement des corpus d’enregistrements et de transcriptions pour l’apprentissage de modèles acoustiques est une opération coûteuse en temps et en moyens. De plus, les enregistrements doivent être nombreux et proches des données qui seront à transcrire (si peu d’entre eux sont des enregistrements téléphoniques, le système ne sera pas performant dans la transcription de communications téléphoniques). Pour développer des systèmes performants et de coût modeste, des techniques « d’apprentissage non supervisé » sont mises en œuvre. Elles consistent à programmer le système pour qu’il collecte et exploite de façon autonome des données complémentaires, tels que des documents audiovisuels disponibles sur le Web. Se posent alors deux problèmes principaux : éliminer automatiquement les transcriptions probablement erronées (dues à des sons parasites, par exemple) ; éviter un surapprentissage, dans lequel les données complémentaires sont très proches de données déjà bien modélisées.

Des sondages automatiques L

es blogs, les forums et les réseaux sociaux, outils simples d’utilisation, permettent à chacun de créer sa propre tribune, de faire partager ses idées sur le Web. Porteurs d’opinions, ils sont riches d’informations utiles notamment pour nombre d’acteurs économiques ou politiques, mais il est difficile d’embrasser ces opinions et leurs tendances dans la multitude de textes produits chaque jour sur la Toile. Un enjeu scientifique est de pouvoir les collecter automatiquement, de façon ciblée, les analyser et produire des synthèses ; c’est aussi un défi, car les programmes ad hoc doivent prendre en compte les subtilités du langage humain. Les linguistes modélisent depuis des décennies l’expression d’opinions dans des énoncés. Prenons un exemple. « L’élection de Miss France est diffusée sur TF1 », publiée sur Twitter, est une information objective ; « Miss Alsace !!! Intelligente ! Bosseuse ! Danseuse ! Humanitaire ! Je veux l’épouser ! », publiée peu après sur le même réseau social, est une opinion. L’opinion peut être distinguée du fait par la fréquence d’emploi du pronom je, témoin de l’implication de l’auteur, et par de nombreux autres indices tels que l’exclamation ou, plus subtils, l’ironie. Le vocabulaire utilisé est particulièrement révélateur ; il peut être d’ordre éthique (« humanitaire »), pragmatique (« bosseuse »), affectif (« Je veux l’épouser »), critique, etc.

Grâce notamment à des tests expérimentaux, nous affinons des méthodes d’injection de données complémentaires afin de rendre l’apprentissage non supervisé très performant. Le système que nous avons présenté fin 2011, lors d’une campagne internationale d’évaluation d’outils de traduction automatique de la parole, a obtenu les meilleurs résultats.3 Ce succès nous encourage à travailler sur une sélection pertinente de données d’apprentissage et ainsi à ne pas nous en tenir au paradigme (approche usuelle) selon lequel « there is no data like more data » (rien ne vaut une quantité de données toujours plus grande) • Yannick ESTÈVE, Professeur, chercheur au Lium, Laboratoire d’informatique de l’Université du Maine 1. Cf. Mieux traduire, de H. Schwenk, dans Têtes chercheuses n°12 « Des langues très vivantes », qui présente des modèles statistiques de traduction. 2. unités élémentaires du langage parlé, comprenant les voyelles et les consonnes 3. Il s’agissait de transcrire des présentations orales énoncées en anglais et de les traduire en français tout en faisant un minimum d’erreurs. Cf. http://iwslt2011.org/doku.php?id=06_evaluation

Les travaux menés depuis 2007 par l’équipe Taln1 ont notamment consisté à construire un dictionnaire informatisé de mots et d’expressions caractéristiques d’opinions et de règles grammaticales qui permettent de « calculer » le sens d’un mot dans son contexte. Ainsi, dans « Elle est beaucoup moins idiote que les autres », la présence de l’adverbe d’intensité beaucoup et celle du mot moins conduisent à inverser la connotation de l’adjectif idiote. Des algorithmes capables d’apprendre le sens de mots inconnus ou des stéréotypes culturels liés à un domaine thématique ont aussi été développés. Ils recourent à une analyse statistique des présences conjointes de différents termes. Ainsi, dans le domaine des élections de miss, le terme strabisme est compris comme porteur d’une opinion négative, tandis qu’il ne porte pas de sens négatif dans d’autres domaines. Pour évaluer la performance d’un programme utilisant ces algorithmes, nous lui avons fait notamment analyser tous les commentaires publiés sur Twitter pendant l’émission Miss France 2012. Son diagnostic indique que, dès 22 h 50, Miss Alsace est la miss la plus appréciée, avec une implication forte des internautes ; cette miss sera la lauréate peu après minuit ! L’exactitude des résultats des logiciels d’analyse d’opinion est aujourd’hui notée 8,5/10 ; elle est encore perfectible. Les efforts de recherche portent en particulier sur des algorithmes capables de saisir l’ironie et les stéréotypes culturels ou permettant de comprendre comment les opinions se diffusent sur la Toile et s’influencent les unes les autres •

La collaboration pluridisciplinaire dont ce projet fait l’objet a offert des challenges profitables à chaque partenaire2. En particulier, elle nous a permis de nous attaquer avec succès à une problématique d’optimisation que nous n’avions pas encore rencontrée •

Matthieu VERNIER, Docteur de l’Université de Nantes (équipe Taln1), cofondateur de la société Dictanova

Frédéric SAUBION 1. Cf. Une recherche d’efficacité page 10 et le glossaire page 16. 2. l’IRHS, Institut de recherche en horticulture et semences (Inra/Université d’Angers/Agrocampus Ouest), un statisticien du laboratoire de recherche médicale Hifih, Hémodynamique, interaction fibrose et invasivité tumorales hépatiques (Université d’Angers), la jeune entreprise Diagene, spécialisée dans le diagnostic végétal, et notre équipe du Leria (Université d’Angers)

Vocabulaire d’opinions relevées sur Twitter à propos de Miss Alsace pendant la soirée Miss France 2012. Cf. www.dictanova-blog.com

1. Traitement automatique des langues naturelles, Laboratoire d’informatique Nantes-Atlantique (Université de Nantes/ École des mines de Nantes/CNRS)

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

DES FORCES LOGICIELLES

© www.ohazar.com

DOSSIER

13

Protéger les données

Des services sans fournisseurs

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

14

Une issue par la numérotation Il est possible de rendre les opérations commutatives en attribuant à chacune d’elles un identificateur unique pour tous les sites1 et qui repère l’endroit du document où elle doit être appliquée. Cet identificateur peut être composé de k entiers, k étant un nombre quelconque illimité ; un algorithme fondé sur ce principe de numérotation tend à augmenter k au fur et à mesure que se multiplient les opérations sur le document, et cela afin d’assurer l’unicité des

les générer va, comme dans le cas précédent, dégrader les performances de l’éditeur au point de le rendre inutilisable, or en testant cet algorithme sur un historique réel de plusieurs centaines d’opérations d’édition d’une page de Wikipedia, il s’est montré très efficace, avec un nombre k d’entiers générés légèrement inférieur à 2 en moyenne (contre plus de 600 pour d’autres méthodes !). Nous avons ainsi montré qu’il est possible de développer des services d’édition collaborative sans fournisseur de service, la méthode étant applicable à d’autres types de données que du texte : ensembles, arbres, graphes... • © Dimitri Vervitsiotis /Photographer’s Choice / Getty Images

L’

évolution du Web et de ses outils a facilité et, de ce fait, étendu la participation collaborative des individus à l’alimentation des contenus en ligne. Wikipedia, encyclopédie en ligne, est emblématique de ce mouvement. La collaboration massive à travers Internet s’est cependant construite sur des infrastructures contrôlées par des fournisseurs de services ; cette situation pose des problèmes de protection de la vie privée, de sécurité, de tolérance aux pannes survenant chez les fournisseurs et remet en question la neutralité du Web. Est-il possible de collaborer massivement sans fournisseur de service collaboratif ? Répondre de manière générale est difficile, mais quand la question est restreinte à un cas plus précis, elle correspond parfois à un problème scientifique qu’il est possible de résoudre. De nombreuses personnes utilisent aujourd’hui des éditeurs de texte collaboratifs, comme Google   Doc ou Etherpad. Ces éditeurs sont fondés sur des algorithmes dits «  de réplication optimiste », dont le principe est le suivant : n sites (ordinateurs connectés à Internet) comportent chacun une copie d’un document ; chaque site peut à tout moment modifier ce document par une opération qui est ensuite diffusée aux autres sites pour y être appliquée. Garantir le fonctionnement correct ou « convergence » d’un tel système suppose que les opérations soient commutatives, c’està-dire que l’ordre dans lequel elles sont reçues n’influe pas sur le contenu du document (ce qui n’est pas le cas d’opérations telles qu’insérer un mot entre le premier et le deuxième mot et insérer entre le deuxième et le troisième). Avec un serveur central, on sait pourtant obtenir une convergence suffisante en pratique ; en revanche, sans celui-ci (mais avec un logiciel fonctionnant sur chaque site), le problème est plus complexe.

identificateurs qu’il génère. Une telle stratégie rencontre toutefois un problème lorsqu’elle n’est pas optimisée : k croît rapidement avec le nombre d’éléments insérés dans le document et le temps de calcul d’un nouvel identificateur augmente aussi vite, au point de rendre le logiciel trop lent. Trouver un algorithme de numérotation optimal en termes de convergence et de performance reste un sujet de recherche. Celui que nous avons élaboré2 génère des identificateurs non bornés (dans la limite des capacités de l’ordinateur) et dont la taille grandit avec le nombre d’éléments insérés dans le document. On peut supposer que si la taille des identificateurs croît, alors l’augmentation du temps nécessaire pour

Pascal MOLLI, Professeur à l’Université de Nantes, chercheur au Lina, Laboratoire d’informatique Nantes-Atlantique (Université de Nantes/École des mines de Nantes/CNRS) 1. L’absence d’unicité provoque des conflits. Imaginons l’édition collaborative d’un programme dont les lignes d’instruction sont positionnées selon des numéros. Si deux lignes successives ont respectivement les numéros 10 et 12, comment gérer le cas où deux internautes insèrent chacun une instruction entre ces deux lignes, le numéro 11 étant le seul disponible ? Pour éviter ce problème, on utilise des numéros comportant de nombreux chiffres. 2. au sein de projets de recherche (Concordant, Streams, Kolow...) soutenus par l’Agence nationale de la recherche et dans le cadre du Laboratoire d’excellence Comin Labs.

Une dispersion moins volatile ou comment protéger davantage les données personnelles sur Internet H par Carine BERNAULT, Maître de conférences, chercheuse à l’IRDP, Institut de recherche en droit privé (Université de Nantes)

L 

es opérateurs informatiques « externalisent » de plus en plus leurs opérations sur des serveurs connectés à Internet et disséminés géographiquement. Des données des clients sont ainsi traitées dans un « nuage » de serveurs accessible depuis n’importe quel ordinateur également connecté à Internet. Cette pratique est très utile1 mais pose des problèmes juridiques, notamment lorsque ces données sont « personnelles » (constituant une « information relative à une personne physique identifiée ou qui peut être identifiée », selon la loi du 6 janvier 1978). La loi française et les règles de l’Union européenne (UE) étant très exigeantes en matière de protection des individus et de leur vie privée, ces données ne peuvent être traitées ou stockées n’importe comment. Conduite à analyser un contrat de service proposé à un établissement par un opérateur informatique, j’ai confronté les pratiques de cet opérateur aux exigences de la loi française. Sont alors apparus deux défauts principaux. La loi de 1978 encadre le transfert des données personnelles hors du territoire de l’UE : celles-ci peuvent être transférées vers un pays référencé par la Commission européenne comme offrant une protection « adéquate » ou dans un autre pays si le prestataire du service offre, par voie contractuelle, « des garanties suffisantes au regard de la protection

Du stockage en nuage « L 

e Cloud » est un modèle économique récent, en extension rapide et qui consiste en une « urbanisation » des systèmes d’information : des données d’entreprises ou de particuliers recourant à un service informatique sont à la fois stockées (cloud storage) et traitées (cloud computing) sur des groupes de serveurs connectés à Internet et dont les situations géographiques sont souvent diffuses et variables (d’où le terme cloud 1), pour des raisons techniques et économiques. Cette « mutualisation » en réseau du stockage et du traitement permet en effet aux opérateurs de simplifier les manipulations des données et d’exploiter ces dernières facilement (parfois à l’insu de leurs clients, certains courriels promotionnels en témoignent). L’offre de tels services externalisés a représenté 2 % du marché des services informatiques en 2011 ; elle devrait atteindre 20 % en 2015.2 Un défi consiste à pouvoir stocker sur le territoire national (cf. Une dispersion moins volatile), sans perte et à l’abri d’exploitations indésirables des volumes de données actuellement en forte croissance. Cette flambée provient en grande partie de la production, par les particuliers, de textes, d’images et de documents audiovisuels ; ces données dites non structurées, par opposition aux données structurées (nombres entiers ou réels et petites chaînes de caractères) des bases de données classiques des entreprises, sont désormais majoritaires en volume (environ 80 %).

On considère généralement qu’il faut disposer, en différents endroits, de trois copies d’un ensemble de données pour que son stockage ait un niveau de sûreté acceptable face aux pertes.3 En 2011, 1,2 zettaoctets (1 200 milliards de gigaoctets) ont été créés et dupliqués pour stockage ; on estime que ce volume sera 75  fois plus grand dans 10  ans, mais il est aussi prévu que 40 % des données ne pourront alors être sauvegardées, par manque de supports ad hoc ! Dans ce cadre, le recours à la « transformée Mojette » présente un grand intérêt : il permet de diviser par 2 le volume de mémoire nécessaire au stockage (1,5 mégaoctet au lieu de 3 pour stocker 1 Mo de données) par rapport à la sauvegarde par triple copie. La transformée Mojette4, développée par notre équipe, consiste en des opérations mathématiques simples (des «  projections  » faites d’additions et de soustractions) qui produisent quelques paquets de nouvelles données (typiquement, une quinzaine de paquets dix fois plus petits que l’ensemble initial). Il est possible de reconstituer les données initiales avec seulement les trois quarts des paquets stockés, d’où la sûreté face aux pertes ; de plus, comme un seul paquet ne suffit pas pour ce faire, la méthode apporte une sécurité face au « piratage ». Cependant, la Mojette a été conçue initialement pour traiter des données structurées. Le travail

de la vie privée et des droits fondamentaux des personnes ». Il faut donc pouvoir identifier les pays dans lesquels les données vont être stockées, or le contrat en question ne garantissait aucunement cette possibilité. La même loi oblige toute personne traitant des données personnelles à en assurer la sécurité (empêcher leur altération ou leur destruction, ou encore leur interception par un tiers qui n’a pas le droit d’en prendre connaissance). Mais si la circulation des données n’est pas connue précisément, comment savoir quelles mesures de sécurité sont appliquées ? L’opérateur était, là encore, dans l’incapacité d’assurer le respect de la loi française.

Des solutions aussi bien techniques que juridiques Certains pays envisagent des solutions radicales. Ainsi les PaysBas projettent-ils d’interdire le recours à certains opérateurs pour tous les services publics qui utilisent l’informatique en nuage. La Commission européenne propose des solutions moins « brutales », qui consistent en des clauses types prêtes à être intégrées aux contrats.2 Il peut être ainsi stipulé que tout opérateur intervenant sur les données doit imposer à un éventuel sous-traitant les mêmes obligations que celles du prestataire initial. Des solutions techniques, telles que le cryptage, sont également préconisées pour accroître la sécurité des données, mais la voie la

que nous menons porte sur des algorithmes permettant d’en dériver des versions qui optimiseront, grâce notamment à leur intégration aux systèmes d’exploitation des machines, la rapidité de traitement et la sécurité des données non structurées • Jeanpierre GUÉDON, Professeur à Polytech’ Nantes (Université de Nantes), chercheur à l’Irccyn (École centrale de Nantes/Univ. de Nantes/École des mines de Nantes/CNRS) et Pierre ÉVENOU, ingénieur de recherche (Polytech’ Nantes/Irccyn), directeur de la société Fizians 1. cloud : nuage ; storage : stockage ; computing : calcul 2. source : IDC 3. Les hébergeurs s’engagent alors dans des contrats qui garantissent un taux de disponibilité des données d’au moins 99,9 %. 4. Cf. Jeux de projections, Têtes chercheuses n°15. zettaoctets 30 données structurées données non structurées 20

10

0

année 2010

2012

2014

2016

2018

2020

Évolution des volumes de données stockées annuellement dans le monde (estimation ; source :  IDC)

plus simple consiste encore à stocker les données uniquement sur le territoire de l’UE. Quelques opérateurs informatiques ont déjà franchi le pas de cette restriction géographique et certains États développent des « nuages nationaux » (cas du projet Andromède, en France). Des stratégies de privacy by design (protection intégrée de la vie privée3) sont également mises en place au travers de nouveaux systèmes informatiques qui intègrent, dès leur conception, une sécurisation adéquate des données1 ; l’idée d’imposer une telle approche fait son chemin aussi bien au niveau européen qu’en droit français • 1. Cf. Du stockage en nuage. 2. C  f. www.cnil.fr/fileadmin/documents/La_CNIL/actualite/20100909-externalisation.pdf 3. Cf. www.ipc.on.ca/images/Resources/pbd_7foundationalprinciples-f.pdf

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Applications en réseau

DES FORCES LOGICIELLES

© www.ohazar.com

DOSSIER

15

DOSSIER

Des interfaces de connaissance

DES FORCES LOGICIELLES

Une caméra de jeu vidéo est détournée au profit de l’étude de la santé des plantes. H par Yann CHÉNÉ et David ROUSSEAU, respectivement doctorant et Professeur, chercheurs au Lisa, Laboratoire d’ingénierie des systèmes automatisés (Université d’Angers)

Lina, Laboratoire d’informatique Nantes-Atlantique (Université de Nantes/École des mines de Nantes/CNRS)

E

xtraire des informations pertinentes de myriades de données est une problématique récurrente et souvent cruciale, en particulier pour nombre d’entreprises qui ont besoin de connaître les préférences d’achat des consommateurs ou de déceler des facteurs de bénéfices afin de prendre des décisions opportunes1. Or il est difficile d’adapter les logiciels existant dans ce domaine à l’explosion des volumes d’informations disponibles et surtout aux besoins variables des utilisateurs. C’est pourquoi l’on recherche de nouveaux moyens d’exploration visuelle de données qui soient faciles d’emploi et propices à des analyses dont les aboutissants ne sont pas nécessairement tous connus au préalable. Les applications de ce champ de recherche permettent d’explorer notamment des structures sociales actuelles, tels les réseaux « d’amis » sur Internet, ou celles du passé. Des historiens médiévistes ont ainsi découvert, en collaboration avec notre équipe et des mathématiciens toulousains, des réseaux de relations dans la paysannerie du Moyen Âge.2 Cette dernière représentait plus de 90 % de la population de l’époque mais reste encore mal connue car la documentation disponible concerne en majorité le clergé et la noblesse. Les chercheurs ont toutefois tiré parti d’un ensemble exceptionnel de 3 000 archives d’actes notariés relatifs à des transactions agraires dans une petite zone du sud-ouest de la France, chacun de ces documents comportant des détails sur les personnes et les lieux concernés3. Après un long travail de numérisation des archives, il a été possible de construire des réseaux dans lesquels deux nœuds (individus) sont reliés si leurs noms apparaissent dans un même acte. Il restait à découvrir l’organisation de ces ensembles complexes de liens inscrits dans le temps.

L

à la fois dans l’arborescence des nœuds et dans le temps et favoriser la mise en évidence de « communautés », ensembles de nœuds comportant de nombreux liens. L’organisation sociale hiérarchisée qui a été ainsi dévoilée traverse le temps malgré les bouleversements dus à la guerre de Cent Ans. Elle consiste en de nombreuses communautés de tailles modestes, apparemment très dépendantes de la proximité géographique, et reliées à des membres d’un « club huppé », communauté correspondant à une élite sociale rurale. Ce projet constitue un test positif de l’apport, dans l’analyse des réseaux complexes, de supports novateurs, tridimensionnels et immersifs, de restitution visuelle. Des expérimentations menées avec des utilisateurs volontaires sont en cours pour évaluer plus précisément son intérêt par rapport à des supports plans • 1. d’où le terme informatique décisionnelle 2. Cf. http://graphcomp.univ-tlse2.fr 3. Par exemple, on y apprend que « Noble Tristan de Manas fils de Sans Gaissias, bailla à nouveau fief à Pierre Aude fils de Pierre et de Jeanne de Merle, la moitié d’une métairie appelée de la Vaissière dans la paroisse de Saint-Paul ». 4. Dans le cas présent, un graphe est constitué d’un ensemble de nœuds (des noms d’individus) et d’un ensemble d’arêtes qui modélisent une relation binaire entre les nœuds (la désignation commune dans un acte notarié). Les nœuds sont représentés par des points dans un espace géométrique et les arêtes par des segments, et l’on peut projeter la représentation sur un plan ou une surface courbe (cf. la photo ci-dessous).

16

L’analyse a combiné des outils mathématiques et des techniques de visualisation de graphes4. Les outils mathématiques permettent de quantifier des propriétés de réseau : on calcule notamment la « popularité » d’un nœud en dénombrant ses voisins et sa « centralité » en comptant le nombre de fois où il se trouve sur des plus courts chemins entre paires de nœuds non voisins. Les techniques de visualisation que nous développons complètent la quantification : un algorithme de disposition spatiale des nœuds, qui tient compte de leurs popularités et de leurs centralités, et un système d’affichage sur un dôme sont ajustés pour faciliter la navigation

Lina-Cod

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Popularités et centralités en réseau

En offrant un large champ de visualisation, proche de 120°, la projection d’un graphe sur un dôme rend « immersive » sa restitution et semble permettre d’explorer sa structure plus efficacement qu’avec un écran plat.

es technologies de « vision par ordinateur » sont de plus en plus utilisées, notamment dans le domaine biomédical (IRM, scanner, tomographie par émission de positons...) pour observer et quantifier des propriétés anatomiques et physiologiques. Leur emploi récent dans l’étude de la santé des plantes est motivé par des enjeux différents de ceux de la santé humaine ou animale : tandis que l’imagerie biomédicale vise essentiellement à produire un diagnostic relatif à un individu, connaître l’état de santé d’une plante revêt une importance moindre ; en revanche, pouvoir diagnostiquer périodiquement celui d’une population de végétaux présente des intérêts en horticulture comme en biologie végétale. L’automatisation d’un tel suivi est au cœur du projet Phenotic1. Cette plateforme technologique regroupe des moyens d’acquisition, de traitement et de référencement d’images de phénotypes (apparences) de végétaux sains ou porteurs d’une pathologie. Dans ce cadre, le travail que nous menons actuellement2 consiste à développer une application originale de la Kinect. La Kinect est une interface homme-machine conçue pour des jeux vidéo et par laquelle la position et les mouvements du joueur sont détectés optiquement. L’intérêt qu’elle présente pour Phenotic est de permettre une production aisée et à bas coût d’une cartographie 3D d’une plante, en repérant automatiquement chacune de ses feuilles, tandis qu’une imagerie classique, en 2D, ne permet pas de distinguer les unes des autres certaines feuilles qui ont la même couleur (cf. la figure A).

Kinect

Un algorithme et des couleurs Il s’agissait de mettre au point un algorithme de cartographie utilisant les données acquises par la Kinect. Ces données sont des distances entre la caméra et de nombreux points de la plante, mais pour que l’algorithme puisse faire correspondre des feuilles à ces points (comme le montre la figure B, on peut alors visualiser chaque feuille via différentes couleurs), il faut lui fournir au préalable quelques informations sur la structure spatiale typique d’un feuillage (quant à la distinction entre une branche et une feuille et quant à l’espacement relativement régulier des branches). On peut ensuite mettre en correspondance (opération nommée recalage) cette cartographie avec des images acquises par d’autres caméras et qui donnent des informations sur l’état de santé du feuillage : l’imagerie thermographique, par exemple, permet de détecter la présence de la tavelure du pommier, un champignon qui se développe à la surface des feuilles, les feuilles malades étant les plus froides (en bleu dans la figure C) ;

à chaque feuille sont ainsi associées des données thermographiques (figures D et E) et il est alors possible de connaître la distribution spatiale et la sévérité de l’infection. Cette application devrait rendre possible la production de diagnostics automatisés, nombreux, peu coûteux, non destructifs, impossibles à réaliser à l’œil nu et reproductibles à loisir. Il est notamment envisagé d’y recourir en plaçant des caméras dans des serres ou au-dessus de tapis roulants, par exemple pour détecter précocement des pathologies dans des productions maraîchères. Cette application devrait aussi offrir des moyens inédits aux études et recherches portant sur la croissance des végétaux ou sur les processus de développement de pathologies végétales • 1. contraction de phénotype et de TIC (technologies de l’information et de la communication), un projet porté par l’Institut de formation et de recherche Quasav (Université d’Angers/Inra/Agrocampus Ouest/ Université de Nantes). Cf. www.istia.univ-angers.fr/ LISA/PHENOTIC/index.html 2. doctorat co-encadré par François Chapeau-Blondeau et mené en collaboration avec l’IRHS d’Angers, Institut de recherche en horticulture et semences

18

température (°C)

17 16 15

A

Lisa

H par Pascale KUNTZ-COSTEREC, Professeur à Polytech’ Nantes (Université de Nantes), responsable de l’équipe « Connaissance et décision » au

D

B

E

C

14

A : image obtenue avec une caméra RGB (couleurs) classique ; B : cartographie obtenue avec les données de la Kinect ; C : image obtenue avec une caméra thermographique ; D et E : images de deux feuilles issues d’un recalage de C avec B

MOTS D’INFORMATIQUE algorithme : séquence finie d’opérations pouvant être appliquées à un nombre fini de données et qui permet de résoudre une infinité de problèmes semblables heuristique : du grec ancien heuriskein (trouver, découvrir), se dit d’une méthode qui aide à progresser dans la résolution d’un problème grâce à une ou plusieurs hypothèses provisoires, dites également heuristiques

intelligence artificielle : développement d’algorithmes visant, à l’origine, à reproduire des fonctions intellectuelles humaines. Une partie des systèmes fondés sur de tels algorithmes sont capables de se compléter ou de se modifier eux-mêmes en fonction des résultats des opérations effectuées sur les données qui leur sont fournies. Aujourd’hui, quant à cette capacité, on parle plutôt d’apprentissage automatique.

réalité virtuelle : simulation informatisée et interactive qui recourt à la perception (très fréquemment visuelle, souvent haptique –  tactile ou relative à un effort mécanique  –  et parfois auditive) pour donner l’impression à l’utilisateur d’être confronté à une situation réelle. Cf. Têtes chercheuses n°4 « Des machines à apprendre ». Internet : système mondial d’interconnexion entre des ordinateurs et nom donné au réseau formé par ces ordinateurs. Il recourt à un protocole de communication (TCP/IP) et à des protocoles de transfert

de données, le plus usité étant HTTP (Hypertext Transfert Protocol).

Web (World Wide Web : toile mondiale) : système de publication de documents qui permet à un logiciel d’accéder à un fichier situé sur un autre ordinateur connecté à Internet (avec lequel le Web est largement confondu). Un navigateur web (browser, en anglais) est un logiciel qui réalise cet accès et qui affiche les contenus du fichier distant. Le fichier et le résultat de l’affichage sont tous les deux nommés « page web ».

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Les outils statistiques ne sont pas les seuls capables de « faire parler » les ensembles de données nombreuses : de nouvelles techniques de visualisation peuvent conférer à l’œil humain une grande force d’analyse.

© Jon Larson / iStockphoto

Des diagnostics automatisés

La 3D qui aide à fouiller

17

TENANT

AIN ÇA SE PASSE M

Progrès ergonomiques

DES FORCES LOGICIELLES

La science cousue d’art

Faciliter le tutorat en ligne

Notre équipe travaille sur un prototype d’EIAH pour l’apprentissage de la programmation avec des travaux pratiques lors desquels un tuteur encadre à distance des élèves confrontés à un problème de codage. Le tuteur doit pouvoir percevoir l’activité des élèves à travers leurs interactions avec la machine et parfois compléter le scénario pédagogique (poser un nouvel exercice, donner accès à un document, etc.) en fonction de leurs performances. Suivre simultanément l’activité de plusieurs élèves est facile techniquement mais pas humainement. Il s’agit donc de fournir à

Les rencontres entre scientifiques et artistes se multiplient notamment pour expérimenter de nouvelles formes de médiation.

chaque tuteur les indicateurs les plus utiles à ses yeux ; un tel indicateur dépend de la stratégie d’observation, qui peut évoluer avec le contexte pédagogique. Par exemple, la rareté des interactions de l’élève avec la machine est un problème quand celui-ci est censé coder, pas quand il lit un énoncé. Un tuteur voudra être alerté de l’inactivité d’un élève ; un autre préfèrera juger d’une activité moyenne... Dans un cas, un indicateur approprié pourra être un code de couleur lié à la fréquence de frappe du clavier ; dans un autre, ce sera plutôt une courbe temporelle synthétisant l’activité de compilation2... En collaboration avec des ingénieurs pédagogiques et des enseignants, nous mettons au point un outil de paramétrage du « profil » de tuteur (relatif à ses habitudes ou préférences) et du contexte d’apprentissage, qui permet à l’EIAH de calculer les indicateurs à fournir à chaque tuteur. Une approche « d’ingénierie dirigée par les modèles » est aussi développée pour mettre à disposition du tuteur une interface d’édition qui va lui

H par Julie DANET

R

permettre dynamiquement, sans arrêter l’EIAH, de définir de nouveaux indicateurs pour changer sa stratégie d’observation ou de modifier son scénario pédagogique • Christophe CHOQUET, Professeur, chercheur au Laboratoire d’informatique de l’Université du Maine 1. Cf. Les machines à enseigner, E. Bruillar (Hermès, 1997), www.stef.ens-cachan.fr/annur/bruillard/mae_somr.htm 2. Cf. le glossaire page 9.

Des besoins mieux saisis L

18

En nous appuyant sur la littérature relative à l’ingénierie logicielle, nous avons d’abord listé les lacunes principales des processus de conception usuels : l’analyse des BU est éludée ou très sommaire ; les utilisateurs sont peu sollicités ; quand ils le sont, il est en général trop tard pour rectifier suffisamment le produit final... Nous avons ensuite entrepris d’améliorer une méthode de conception de logiciels de réalité virtuelle1 afin de constituer un guide méthodologique de prise en compte des BU. Les étapes ajoutées à cette méthode ont été mises en œuvre et validées

Arts et métiers ParisTech-Angers

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

es logiciels ont beau avoir été élaborés avec soin et soumis à des tests, il est fréquent qu’ils s’avèrent insuffisamment adaptés aux besoins des utilisateurs (ici notés BU), parce que leur conception est centrée sur des aspects plus techniques qu’ergonomiques (adaptés à une réalisation efficace et confortable de tâches humaines).

Environnement « chambre » du logiciel Appli-Viz’3D

empiriquement dans le cadre de la conception d’Appli-Viz’3D. Ce logiciel commercial est un outil d’aide à la conception et à la vente de produits de puériculture ; il permet de mettre en scène des prototypes de produits et des mannequins dans un environnement virtuel 3D réaliste (une chambre d’enfant ou une voiture) ; ses utilisateurs sont des ingénieurs, des designers et des agents de marketing. Ces étapes, qui reposent sur un principe de co-conception faisant participer tous les acteurs du projet et des utilisateurs2, sont : le recueil et l’analyse, par les concepteurs, des exigences des commanditaires du logiciel ; l’analyse des BU exprimés dès le début de la conception, comme « avoir un environnement chambre et un environnement voiture » ; l’identification des contraintes des concepteurs afin que tous les partenaires en aient conscience ; la concertation régulière (construire, tout au long du processus, une représentation du logiciel commune à tous les acteurs) ; la confrontation des exigences, des BU et des contraintes (synthèse des quatre étapes précédentes) ; la mise en situation et l’identification de nouveaux besoins (faire émerger, en situation d’utilisation, les BU non conscients ou latents, qui n’existaient pas a priori, comme pouvoir créer une chambre avec une ou deux fenêtres) ; la connaissance des priorités des utilisateurs dans les choix de conception : par exemple, ils ont jugé cruciale la possibilité de donner aux mannequins des postures réalistes alors qu’elle n’avait pas été prévue par les concepteurs • Émilie LOUP-ESCANDE et Olivier CHRISTMANN, enseignants-chercheurs au sein de l’équipe « Présence et innovation » (Arts et métiers ParisTech-Angers à Laval) 1. La méthode I²I, Interaction et immersion pour l’innovation, S. Richir (Techniques de l’ingénieur, pp1-9, 2003). Cf. le glossaire page 16, quant au terme réalité virtuelle. 2. V  ers une conception centrée sur l’utilité : une analyse de la co-construction participative et continue des besoins dans le contexte des technologies émergentes, é. Loup-Escande (thèse de doctorat, Université d’Angers, 2010)

ecourir à l’imagination d’artistes pour mettre en scène la science n’est pas nouveau. Le lancement récent, en Pays de la Loire, de plusieurs opérations « art et science » donne cependant l’occasion de s’interroger sur la pertinence de l’approche : attise-t-elle l’intérêt du public pour les sciences ? Ne risque-t-elle pas de gêner la compréhension des productions scientifiques ?

Des croisements de regards À Angers, le centre de culture scientifique, technique et industriel Terre des sciences, en partenariat avec le théâtre Le Quai, s’est lancé dans l’organisation de cafés « Sciences et Arts ». « Les premières rencontres ont trouvé un auditoire plus diversifié que celui de nos cafés-sciences habituels, constate Jean-Pierre Jandot, médiateur de ce centre. L’artiste et le scientifique construisent ensemble, au gré des questions du public, une vision singulièrement élargie d’un objet. Par exemple, à la définition rationnelle du paysage donnée par le géographe, le photographe a ajouté une dimension graphique et abstraite ; interprété différemment par chacun, le tableau résultant aide à mesurer combien un paysage peut être diversement perçu. » À Nantes, l’exposition « La robe et le nuage » a attiré 14 000 visiteurs l’été dernier. « L’histoire de la radioprotection y a été abordée à travers des œuvres plastiques et des vidéos, indique Aurélien Taillard, médiateur au Pavillon des sciences1. L’absence d’exposé scientifique a permis à certains de se sentir suffisamment à l’aise pour confier aux animatrices présentes leur peur du nucléaire ou du cancer et leurs questionnements. » L’art est ainsi, pour la diffusion des sciences, un moyen de jouer de cordes sensibles. « Mais quand il tient le devant de la scène, il peut poser problème, avoue Aurélien, car le public qui souhaite comprendre des phénomènes a besoin, en plus d’informations scientifiques, de manipuler des instruments ou des maquettes ; une œuvre d’art permet rarement cela. »

L’interaction fait la force Dans l’agglomération nantaise, les mathématiques sont au cœur d’un projet de théâtre2 associant artistes, chercheurs, enseignants et élèves3. « Cette initiative a trois ambitions, explique Christelle Pillet, coordinatrice à l’association culturelle Athénor : provoquer des rencontres inhabituelles, proposer aux élèves de vivre les maths autrement et permettre aux artistes de s’inspirer de l’univers des mathématiciens pour créer un spectacle : L’Apéro mathématiques. » « Grâce à des entretiens filmés lors de notre résidence au laboratoire de maths, nous observons et tentons de nous approprier les mécanismes de pensée des chercheurs, résume Mickaël Chouquet, acteur des Ateliers du spectacle. Nous leur demandons de nous exposer leur travail actuel comme s’ils s’adressaient à un confrère puis à un néophyte. Nous nous inspirons de ces échanges pour jouer avec leur langage, leurs objets abstraits ou leurs raisonnements. » Selon Laurent Guillopé, Professeur à l’Université de Nantes et référent du projet au laboratoire Jean-Leray, « il n’est pas étonnant que les mathématiques inspirent des acteurs : comme le théâtre, elles sont un espace de création, un langage utile pour apporter un regard sur le monde. Participer à ce projet est positivement perturbant : il m’aide notamment à trouver de bonnes manières d’expliquer les objets et les raisonnements mathématiques ».

Comédiens en herbe du lycée Albert-Camus (Nantes). De gauche à droite : Raphaëlle Audéon, Anaïs Poisbeau, Sacha Truchet, Léo Callu et Tangui Affilé.

Les expériences menées au lycée Albert-Camus ont invité des élèves à réfléchir sur l’égalité, la différence et l’identité. À partir de ces notions, ils ont formulé des questions parfois surprenantes : « Peut-on se diviser pour se multiplier ? Pourquoi n’y a-t-il pas un troisième sexe ? Les racines de l’Homme sont-elles toujours positives ? » ; celles-ci définissent les thèmes d’ateliers de théâtre : « Chaque binôme a dû écrire puis jouer une saynète dans laquelle les personnages manipulent des mathématiques pour répondre à la question choisie », précisent leurs professeurs de mathématiques et de français, Marion Larrère et Aurélie Renaud. Un groupe d’élèves décrit les apports respectifs des artistes et des chercheurs : les premiers « nous poussent à aller au bout de nos idées, mêmes les plus farfelues » ; les seconds « nous aident à les exprimer en langage mathématique ». Et Tangui et Mélanie de livrer la chute de leur pièce : « Pour qu’une communauté du troisième sexe puisse, en quelques générations, égaler en nombre celle des deux autres sexes sur Terre, il faudrait que ses individus soient pubères à 5 ans et que leur grossesse ne dure que 3 mois. » Comme leurs homologues professionnels, ces comédiens en herbe présenteront fin juin le fruit de leurs travaux au public nantais. Plus que de les exercer à produire un raisonnement bien fondé, il s’agit de les inciter à inventer, à tester des hypothèses et à s’approprier des concepts mathématiques en jouant avec eux. L’idée semble faire mouche, mais quoi qu’il en advienne, il pourrait être sage de ne pas la figer dans des conclusions et lui conserver ce statut commun à la science et à l’art : celui de démarche expérimentale • 1. Centre de culture scientifique, technique et industrielle de Franche-Comté 2. piloté par l’association Athénor, le réseau Éclair (École collège et lycée pour l’ambition, l’innovation et la réussite), le Laboratoire de mathématiques Jean-Leray (Université de Nantes/CNRS/Géanpyl) et le pôle Séquoia (Ville de Nantes) 3. artistes de la compagnie des Ateliers du spectacle, scientifiques du laboratoire Jean-Leray, enseignants et élèves des écoles Alain-Fournier et Jean-Zay (CM2), des collèges Debussy et La Durantière (4e) et du lycée Albert-Camus (seconde)

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

expérience tirée des « machines à enseigner »1 montre combien un recours efficace à des outils informatiques nécessite leur adaptation non seulement aux contenus pédagogiques et aux apprenants mais aussi aux enseignants et à leurs activités. Nous mesurons « l’intelligence » d’un EIAH (environnement informatique pour l’apprentissage humain) à son « ouverture », c’est-à-dire à aux possibilités qu’il offre aux utilisateurs pour l’ajuster par eux-mêmes.

© www.ohazar.com

L’

J. Danet

DOSSIER

19

Il y a 100 ans...

JEUX

Un séisme en géologie

Énigme logique

Proposée en 1912 par Alfred Wegener, la théorie de la mobilité des socles continentaux a d’abord rencontré scepticisme et opposition de la part des géologues.

© Bettmann / Corbis

Conflit de savoirs

H par Philippe LE VIGOUROUX, professeur agrégé de sciences de la vie, de la Terre et de l’Univers, doctorant au centre François-Viète d’épistémologie et d’histoire des sciences et des techniques (Université de Nantes)

n 1911, le météorologiste allemand Alfred   Wegener prend connaissance « de conclusions paléontologiques [...] admettant l’existence d’une ancienne liaison terrestre entre le Brésil et l’Afrique »1. Selon la théorie alors dominante, les continents subissent des forces essentiellement verticales, dues à la contraction de la Terre qui se refroidit ; ainsi la formation de l’océan Atlantique résulterait-elle de l’effondrement d’un ancien « pont continental » reliant l’Amérique du Sud et l’Afrique. Frappé par la similitude de leurs lignes de côte, par celle de leur flore et de leur faune et par la correspondance de leurs formations rocheuses, Wegener propose en 1912 que les continents africain et sud-américain n’en formaient qu’un seul dans un passé lointain, et fait « l’hypothèse de grandes poussées horizontales qui ont déplacé et déplacent probablement encore les socles continentaux »2.

Un immobilisme tenace

20

Cette profonde remise en cause géologique est largement laissée sous silence jusqu’en 1922, sous l’effet du boycott de la science allemande organisé par les académies des sciences des Alliés de la Grande Guerre. Elle ne convainc par la suite que peu d’experts, en raison notamment de l’absence d’hypothèse crédible faite sur le mécanisme générateur des dérives continentales. Les observations confondantes n’ont donc pas suffi à ébranler la vision fixiste du globe terrestre, et la dérive des continents s’évanouit avec la disparition de Wegener, en 1930. C’est seulement trois décennies plus tard que les premières études des fonds océaniques et l’avancée des connaissances relatives à la structure interne de la Terre permettent à une nouvelle conception mobiliste de s’imposer.

s’éloigne d’une dorsale, elle s’enfonce dans l’asthénosphère (partie inférieure et la plus ductile du manteau supérieur) sous son propre poids, dans une zone dite de subduction, sous une autre plaque. Forts de ces avancées, les géophysiciens William  J.  Morgan, Dan McKenzie et Xavier Le Pichon aboutissent en 1968 au modèle de la « tectonique des plaques » : la surface du globe est divisée en plaques lithosphériques (on en compte aujourd’hui 14 principales) rigides, épaisses d’une centaine de kilomètres en moyenne et constituées d’une croûte et d’une partie du manteau supérieur. Ces plaques, dont les continents forment la partie émergée, reposent et se déplacent sur l’asthénosphère. Elles convergent dans les zones de subduction ou divergent à partir des dorsales, à des vitesses de l’ordre de quelques centimètres par an. Rapidement adopté, ce modèle constitue désormais le cadre conceptuel dans lequel est interprété l’ensemble des phénomènes et des structures géologiques.

L’œil géomètre

Une moitié ni petite ni grosse Un producteur d’huile d’olive vend sur les marchés son délicieux liquide conditionné dans des bidons opaques et parfaitement cylindriques. Une dame vient lui demander un demi-bidon d’huile, « ni plus ni moins », mais il n’a aucun instrument de mesure sous la main. Ses bidons étant pleins à ras-bord, comment peut-il s’y prendre pour satisfaire cette dame tatillonne ?

Si, à ce jour, tous les géologues accordent à la convection mantellique3 le rôle de moteur de la tectonique des plaques, ils continuent néanmoins de débattre sur les contributions respectives, aux mouvements des plaques, des mécanismes d’expansion océanique et de subduction. Gageons qu’ils le fassent en gardant à l’esprit les leçons du passé, ouverts aux idées audacieuses ! • 1. La genèse des continents et des océans. Théorie des translations continentales, A. Wegener (Nizet et Bastard, 1937, traduit par A. Lerner) 2. La genèse des continents et des océans, A. Wegener (Blanchard, 1924, traduit par M. Reichel) 3. C  f. par exemple Scanner la Terre, É. Beucler et A. Mocquet, Têtes chercheuses n°10 « Cailloux et planètes »

En complément… •H  istoire de la tectonique. Des spéculations sur les montagnes à la tectonique des

Mots croissants

Des animaux utiles Trouver six noms d’outils qui sont aussi des noms d’animaux et qu’on peut placer horizontalement dans la grille. Les indices suivants sont donnés dans un ordre différent de celui des noms dans la grille. Je fais mousser. Je moule. Je tends un tissu. Je soulève et je déplace. Je perce. Je sélectionne. Avec les lettres placées dans les cases colorées, trouver un septième nom d’animal et d’outil.

plaques, G. Gohau (Vuibert Adapt-Snes, 2010)

•U  ne révolution dans les sciences de la Terre, A. Hallam (Seuil, 1976)

Des révélations abyssales Au tout début des années 60, l’américain Harry Hess met en relation son étude des reliefs et des roches des planchers océaniques et l’hypothèse de mouvements convectifs3 animant le manteau proposée en 1930. Il établit ainsi la théorie de l’expansion, qui sera consolidée en 1963 par les résultats des premières mesures paléomagnétiques effectuées sur ces mêmes roches : la lithosphère océanique est formée continuellement au niveau des hauts reliefs volcaniques qui se dressent dans les océans (dorsales) ; en se densifiant par refroidissement à mesure qu’elle

La devinette de Julie Illustration d’Alfred Wegener (après traduction en 1924) © Scanrail / Fotolia.com

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

C’est l’étude des climats anciens qui fournit à Wegener l’argument le plus fort pour étayer sa théorie de la dérive des continents. Des paléoclimatologues ont en effet récemment conclu, à partir des traces d’une glaciation datant du Permo-Carbonifère (de -360 à -245 millions d’années), à la présence passée du pôle Sud au milieu de l’océan Indien. Or, dans les formations rocheuses de même âge situées aux antipodes de cet océan, ils n’observent aucun indice d’un climat froid mais des gisements de charbon, vestiges de forêts tropicales. Selon Wegener, ces deux observations constituent « une réfutation éclatante de l’hypothèse de l’immobilité des continents » ; elles sont en revanche cohérentes avec celle de l’existence, à cette époque, d’un continent unique (la Pangée) qui se serait ensuite disloqué, les parties ainsi formées ayant lentement dérivé jusqu’à leur position actuelle.

Alfred Wegener en 1930

© www.ohazar.com

E

Cameron, Lucy et Drew se chamaillent à propos d’une championne du monde de lindy hop. « Elle a eu au moins trois titres mondiaux ! affirme Cameron. – Mais tu délires ! Jamais de la vie ! rétorque Lucy. Je suis sûre qu’elle en a remporté moins que ça. – Ben, en tout cas, les filles, elle en a eu au moins deux. Ça, c’est certain ! » ajoute Drew. Sachant qu’une seule de ces trois affirmations est correcte, pouvezvous dire combien de titres mondiaux la danseuse en question a réellement remporté ?

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

de l’histoire

© www.ohazar.com

À la lumière

Une définition qui se mord la queue Je suis parfois à base de poisson et l’on me redoute en cours. Si l’on me pose, je suis comme ce qui suit. Que suis-je ?

Indices et solutions sur www.tetes-chercheuses.fr

21

ALLONS-Y !

Lorsqu’ils chassent, les hommes M’baka d’Afrique centrale utilisent un arc musical pour s’adresser aux génies de la forêt. Au Vanuatu, les tambours à fentes accompagnent les cérémonies sacrées... Rassemblant de nombreuses pièces de la collection de la Ville du Mans, riche d’environ 3 000 instruments de musique ethnographiques, cette exposition est une invitation à découvrir le sens du sacré dans la vie quotidienne de cultures passées ou contemporaines. Une conférence sur les instruments de la Chine ancienne aura lieu le 19 avril à 18 heures.

jusqu’au 22 avril, au Carré Plantagenêt, musée d’archéologie et d’histoire, 2, rue Claude-Blondeau,

LE Mans.

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Renseignements : 02 43 47 46 45, www.lemans.fr/musees

22

Jeux de grains Ils sont partout, ils nous entourent, et pourtant l’on connaît peu de choses des grains ! Grains de riz, petits pois, sable, perles, billes, graviers, céréales... Comment ces grains si familiers réagissent-ils à un changement de leur environnement ? Cette exposition vous invite à découvrir leurs comportements parfois étranges à travers plusieurs manipulations. Elle propose de découvrir comment les sciences fondamentales se sont emparées des matériaux granulaires pour étudier de nombreux phénomènes (glissements de terrain, avalanches, formation des anneaux de Saturne, etc.). Et la physique des grains intéresse aussi la pharmacie, l’agroalimentaire, les cosmétiques, l’industrie du bâtiment...

jusqu’au 30 avril, au CCSTI-Musée des sciences, place de Hercé à laval. Renseignements : 02 43 49 47 81, www.ccsti-laval.org

Les Journées scientifiques Cette année, les JS de l’Université de Nantes accueilleront 18 colloques pluridisciplinaires. Pour le grand public et les scolaires, les controverses scientifiques seront au cœur des débats. à partir de 9 h 45, différents conférenciers aborderont, sous les angles de la philosophie et de l’histoire, l’obscurantisme, cette attitude opposée à la diffusion des savoirs. Puis à 18 h 15, André Brahic, astronome et astrophysicien français, nous éclairera sur la quête de nos origines. Sommes-nous seuls dans l’Univers ? Comment le Soleil et la Terre sont-ils apparus ? Ces questions encore sujettes à controverses seront évoquées à travers l’histoire de l’étude du Système solaire.

le vendredi 8 juin, à la Cité Nantes Events Center (Cité internationale des congrès) de Nantes Métropole, 5, rue de Valmy à Nantes. Entrée libre et gratuite. Renseignements : www.univ-nantes.fr/js2012

Nantaises au travail

Fragonard au scalpel

« Les femmes travaillent depuis la Seconde Guerre mondiale » ; « Elles peuvent passer le baccalauréat depuis son origine » ; « Aujourd’hui, elles sont aussi bien payées que leurs collègues masculins »... À travers cette exposition, le musée d’histoire propose de tordre le cou à ces idées fausses. Des documents, des témoignages filmés et des portraits photographiques permettront au public de découvrir que les femmes de l’agglomération nantaise travaillent depuis toujours, que le premier lycée accessible aux jeunes filles à Nantes n’a ouvert ses portes qu’en 1882... entre bien d’autres choses !

Christine Lesellier, artiste peintre graveur, propose une interprétation personnelle des collections d’écorchés d’Honoré Fragonard, anatomiste du XVIIIe siècle dont l’œuvre a été longtemps occultée par celle du Fragonard peintre, son cousin. Dans son travail présenté au muséum nantais, la peinture, le dessin et l’estampe se côtoient pour exprimer avec sensibilité cette étonnante matière que constitue les écorchés. Le visiteur pourra admirer dix-huit de ses œuvres dont son interprétation du célèbre Homme à la mandibule ou celle du groupe équestre du Cavalier. L’ensemble est complété d’une documentation sur l’illustration anatomique.

jusqu’au 13 mai, au château des ducs de Bretagne – musée d’histoire à Nantes. Renseignements : 0 811 46 46 44, www.chateau-nantes.fr

jusqu’à la fin mai, au Muséum de Nantes, 12, rue Voltaire à NANTES. Renseignements : 02 40 41 55 00, www.museum.nantes.fr

CONFÉRENCES & Débats MUSÉUM DE NANTES

Café des sciences de Nantes

• La fertilité est-elle en danger ? le 5 avril à 20 h 30, dans l’amphithéâtre du muséum, en partenariat avec l’Inserm et l’émission « Le Labo des savoirs » de la radio Prun’ (92 FM). Entrée gratuite. • Les plantes fossiles, témoins de l’évolution végétale et des climats du passé, le 10 avril à 20 h 30, 12, rue Voltaire à Nantes. Entrée gratuite. Renseignements : 02 40 41 55 00, www.museum.nantes.fr

• Stats et sondages, le 10 avril • Lumière sur la matière noire, le 15 mai à 20 h 30, au café Le Flesselles, 3, allée Flesselles à Nantes. Entrée libre. Renseignements : 02 51 85 84 45, www.sciences-techniques.univ-nantes.fr Association Les bêcheurs d’étoiles

• Stage d’astronomie de deux jours et deux nuits, du 13 au 15, du 20 au 22 et du 27 au 29 avril Renseignements : 02 40 89 49 87, www.Becheurs-dEtoiles.net Parc naturel régional de Brière

• La nature en éveil, le 14 avril

Dinosaures, l’empreinte des géants Dans la nouvelle classification, dite phylogénétique, des êtres vivants, les oiseaux apparaissent comme les descendants des théropodes. Ces dinosaures bipèdes, de morphologies très diverses, n’auraient pas tous disparu à la fin du crétacé, il y a 65 millions d’années, contrairement à ce qui se dit parfois encore ! Cette exposition didactique retrace une étonnante histoire à travers la présentation de squelettes de différents théropodes ressemblant à des oiseaux, comme les Unenlagia, Bambiraptor, Microraptor et Caudipteryx, et d’oiseaux actuels ou fossiles tels que l’Archaeopteryx.

jusqu’au 31 juillet, au musée Vert, 204, avenue Jean-Jaurès, LE  MANS. Renseignements : 02 43 47 39 94, [email protected]

de 9 h à 12 h. Sortie nature gratuite sur réservation depuis la maison d’accueil de Rozé à Saint-Malo-de-Guersac (L.-A.). Renseignements : 02 40 66 85 01, www.parc-naturel-briere.fr Structure Fédérative de Recherche François-Bonamy (nantes)

• Visite de l’entreprise de biotechnologies Affilogic (création d’anticorps de synthèse), le 24 avril • Visite de l’entreprise de biotechnologies Biomedical tissues (réparation des tissus humains), le 10 mai à 18 h 30. Renseignements : 02 28 08 00 25, www.sfrsante.univ-nantes.fr

Végépolys en fête Cet été, Végépolys et Terre des Sciences organisent un ensemble d’événements festifs et culturels qui valoriseront « l’Anjou, terre du végétal » et permettront à chacun de découvrir de nombreuses utilisations ou caractéristiques des plantes, ainsi que les composantes, les formations et les métiers du pôle végétal angevin. Des conférences et des expositions, en particulier celle des Aquarelles du catalogue du semencier Vilmorin, seront présentées dès le 20 juin à la collégiale Saint-Martin. Durant la même période, les « Rendezvous du végétal » permettront de découvrir les entreprises, les laboratoires, le patrimoine, les parcs et jardins et les innovations végétales.

jusqu’au 31 août, à angers. Informations complémentaires : 02 41 72 14 21, www.terre-des-sciences.fr

Pourquoi j’ai mangé mon chien

Une archéologie des animaux Quand les ossements livrent leurs secrets aux archéologues, on apprend comment les animaux ont été utilisés, consommés, sacrifiés ou pensés depuis la fin de la Préhistoire. Animaux chassés (mais comment ?), animaux élevés (mais depuis quand ?), animaux disparus (mais pourquoi ?)... tous occupent une place importante dans les sociétés humaines. Conçue par le Muséum de Tours, le laboratoire Archéologie et territoires (CNRS) et l’Université de Tours et présentée par l’association Capra, l’exposition rassemble, dans une présentation ludique, une synthèse des connaissances acquises sur le thème.

du 7 avril au 16 septembre, au Céram P.-Térouanne, rue Gounod à ALLONNES (Sarthe). Renseignements : 02 43 80 68 31, www.association-capra.com

Écorces Aujourd’hui, on compte quelques 100 000 espèces d’arbres sur la planète. Leur écorce constitue à elle seule un écosystème qui abrite une foule d’organismes vivants, d’insectes et d’autres petits animaux... à travers les clichés de Cédric Pollet, c’est la biodiversité des arbres qui s’offre aux yeux des visiteurs. Aussi riche que fragile, celle-ci apparaît dans les moindres détails de la peau des arbres, dans leur forme, leur texture, leur teinte... Cette exposition nous rappelle également que les arbres tiennent une place de choix à Angers. Saviez-vous que le plus ancien bois connu dans le monde vient d’Anjou ? Il s’agit d’un fossile vieux de plus de 400 millions d’années.

jusqu’au 18 septembre, au Muséum des sciences naturelles, 43, rue JulesGuitton à ANgers. Renseignements : 02 41 05 48 50, www.angers.fr/museum

Café-Forum d’Angers

Société d’astronomie de Nantes

piano’cktail (bouguenais)

• Génétique  et justice, le 25 avril (dans le cadre de la Journée de l’ADN)

• Saturne-Terre : 1 h 15-lumière, le 28 avril à 21 h • Recrudescence d’activité sur le Soleil ? le 2 juin à 15 h Observations du ciel au parc du GrandBlottereau, bd A.-Péneau à Nantes. Renseignements : 02 40 68 91 20, www.san-fr.com

• Le hasard existe-t-il ?, le 14 mai café philo, à 20 h 30, au Piano’cktail, rue Ginsheim-Gustavsburg à Bouguenais (L.-A.). Renseignements : 02 40 65 05 25, www.pianocktail.fr

• Physique sensible des instruments de musique, le 9 mai à 19 h 30, au bar du forum du Quai, théâtre Le Quai, cale de la Savatte à Angers. Entrée libre. Renseignements : 02 41 72 14 21, www.terre-des-sciences.fr MUSÉUM D'ANGERS

• La biodiversité dans les forêts tropicales, le 25 avril • La diversité des bois, le 9 mai à 20 h, à l’institut Municipal, place Saint-Éloi à Angers. Entrée libre. Renseignements : 02 41 05 48 50, [email protected]

Musée Vert (LE MANS)

• à la découverte des dinosaures du nord-ouest de la France, le 3 mai • Capricornes et longicornes de Sarthe, le 21 juin à 18 h, au musée Vert, 204, avenue Jean-Jaurès au Mans. Renseignements : 02 43 47 39 94, [email protected]

Ministère de la culture

• Nuit des musées, le 19 mai partout en France. Programme : www.nuitdesmusees.culture.fr larema (université d’angers) / terre des sciences

• L’histoire de l’informatique, le 24 mai à 20 h 30, à l’éthic étapes Lac de Maine, 29, avenue du lac de Maine à Angers. Renseignements : 02 41 72 14 21, www.terre-des-sciences.fr

TÊTES CHERCHEUSES - Numéro 21 - Printemps 2012

Rituels et musiques du monde

23

Depuis leur apparition sur Terre, les plantes ont « mis au point », des millions d’années durant, toutes sortes de mécanismes étonnants pour survivre et se développer. Saviez-vous, par exemple, que pour se protéger des gazelles, un acacia change la composition chimique de ses feuilles en quelques secondes et les rend incroyablement astringentes ? Lors de ce festival organisé par Cap aux sciences, d’autres phénomènes étudiés par les chercheurs vous seront présentés à travers des projections de films provenant notamment du CNRS Images, des expositions, des conférences, des ateliers et des « sorties nature ».