Is google making us stupid - Synthèse

Nous, David Soria et Noé Bedetti, étudiant en troisième années de l’Ecole Centrale de Nantes en option informatique, avons travaillé depuis le mois de novembre sur les réactions autour de l'article de Nicholas Carr ; Is Google making us stupid. La première phase de notre travail fut donc d’étudier l’article en lui-même, que ce soit dans sa version en anglais ou une traduction en français faite sur le site Framablog. Nous avons dès lors pu faire notre propre interprétation de l’article, non-influencée par les réactions que nous avons étudiées par la suite.

La première chose qui ressort de l’article, et beaucoup de personnes abondent en ce sens, est que Google en particulier, et Internet en général modifie notre façon de penser et que nous sommes dès lors, incapables de nous concentrer longtemps sur une même tâche. Ceci proviendrait des intérêts des moteurs de recherche qui sont de nous faire visiter le plus de pages possible, pour engendre le plus de bénéfices possible. Le fait que nous ne lisons pas de la même manière sur Internet et avec un livre semble indéniable, cependant, les avis divergent pour savoir si ceci est bénéfique ou au contraire nuisible. Ainsi, Nicolas Dickner souligne que si nous ne nous concentrons pas toute notre attention quand nous surfons sur Internet, nous sommes cependant toujours capables de le faire. Naviguer sur Internet permettrait même selon Kevin Kelly à notre intelligence de s’exprimer pleinement, avis corroboré par une étude des neuroscientifiques de l'université de Californie, qui montre que nous utilisons une plus grande part de notre cerveau lors de la consultation de pages Internet que lorsque nous lisons.

D’autre part, si certains voient en internet un formidable moyen d’élargir le spectre de leurs connaissances, d’autres considèrent qu’il est fortement néfaste à la réflexion. Dans l’article « the internet ate my brain » , on peut clairement remarquer ce mouvement de défiance vis-à-vis des nouvelles technologies. Il est appelé à résister à ce mouvement de l’ère du tout numérique. Ces réactions appellent à ne pas accepter les changements qu’internet semblent imposer.

D’autres réactions plus optimistes comme celle de Clay Shirky défendent le progrès qu’internet a engendré et sont critiques à l’égard de cette résistance. Au lieu de rejeter le progrès que peut représenter internet à cause de ses dangers, il propose d’accompagner cette évolution et de mieux la maîtriser afin d’en tirer le meilleur parti.

Plan du rapport final

I. Les changements induits par les nouvelles technologies

II. les conséquences néfastes

III. Les possibilités qui s'offrent à nous.

0 comments

Objective-C : Synthèse

Synthèse

A travers les articles précédents, nous avons pu voir que même si l’Objective-C est, tout comme C++, une surcouche apportant la programmation objet à C, ces langages sont très différents. En effet, ils n’abordent pas la programmation orientée objet sous le même angle, notamment du fait d’héritages venant d’autres langages de programmation.

Pourtant, Objective-C se distingue du C++ et de bien d’autres langages pour d’autres raisons. Ce langage est basé sur un nombre restreint de bibliothèques, qui concentrent la très grande majorité des fonctions nécessaires. Ces bibliothèques sont soutenues et développées par Apple et GNUStep, les seconds tentant de maintenir un environnement libre supportant les apports au langage des premiers. La conséquence est que les bibliothèques ne sont pas éparpillées parmi de nombreux sites indépendants mais concentrées auprès de ces deux sources.

Objective-C n’est peut-être pas « Programming Language of the Year » pour TIOBE mais il a été longtemps le grand favori. Objective-C connaît effectivement une croissance significative, notamment liée au succès des produits Apple ces dernières années. S’il est loin d’être aussi incontournable que le Java et le C++, il n’en est pas moins un des langages majeurs à l’heure actuelle et dans le développement des Smartphones.

Pour conclure, s’il ne semble pas raisonnable de penser que tout développeur devrait être capable de programmer en Objective-C, il est pourtant nécessaire de savoir quelles sont les forces et les contraintes de ce langage et comment l’appréhender. Au vu de l’évolution actuelle des technologies, des connaissances élémentaires sur l’Objective-C sont nécessaire pour assurer son avenir dans l’informatique, tant pour un développeur que pour un manager.

Plan du rapport final :

  1. L’Objective-C, qu’est-ce que c’est ? Historique et grands mouvements, bases du langage.
  2. Environnements de travail : qu’utiliser pour programmer en Objective-C ?
  3. Bibliothèques de fonctions : parce que la roue a déjà été inventée par d’autres avant nous.

0 comments

Réalité augmentée sur smartphones : bilan

Réalité augmentée : bilan

La réalité augmentée, l'art de superposer des informations supplémentaires à des données provenant du monde réel. Expérimentée depuis longtemps dans le domaine militaire, en particulier l'aviation, elle n'est que depuis peu accessible au grand public, grâce au développement des smartphones. Disposant à la fois de processeurs performants, et d'une caméra assez rapide, ils semblent être la plate-forme idéale pour la renaissance et l'épanouissement de cette technologie. Mais qu'en est-il en pratique ?

Multiplication des applications

Au cours des dernières années, diverses applications présentant un certain intérêt ont vu le jour. On citera les plus usitées :

  • Cartographie augmentée : ajout de données sur les bâtiments et monuments vus par la caméra, en combinaison avec le GPS.
  • Jeu : ajouts d'éléments sur le monde réel avec lesquels l'utilisateur peut virtuellement interagir.

Si ces applications ont pu être développées aujourd'hui, c'est non seulement par la grâce du développement matériel, mais aussi du logiciel, initié par des librairies open source.

Une technologie en plein essor

ARToolKit est une librairie née de l'universitaire japonais Hirokazu Kato à la toute fin du siècle dernier. Sous licence libre, elle est la mère directe de la plupart des applications dites de réalité augmentée que l'on peut trouver sur les divers smartphones, pour un OS ou un autre. Elle résout les problèmes de base de repérage dans l'espace des points enregistrés par l'appareil, et du placement d'éléments dans ce référentiel.

Toutefois, on s'aperçoit rapidement que si les logiciels actuels ont amélioré l'aspect graphique, la plupart des limitations de la librairie sont restées telles quelles. En particulier, l'emploi obligatoire d'une surface de référence.

Un futur proche ou lointain ?

La première chose qui surprend lorsque l'on entame des recherches sur le sujet ici abordé est finalement l'ancienneté de la plupart des articles, écrits voilà deux ou trois ans, période de buzz. Depuis, force est de constater que la technologie n'a finalement guère progressé. Faut-il voir ici une simple période de rodage, ou manque-t-il encore un élément à l'alchimie, comme un verrou technologique à faire sauter, ou une application vraiment transcendante à trouver ?

Plan

Nous résumerons donc notre approche avec le plan suivant :

  1. La réalité augmentée sur smartphones, qu'est-ce donc ? Quelques applications pratiques.
  2. Niveau technique atteint : hardware et software.
  3. La réalité augmentée, technologie de demain ? Limites et avenir.

0 comments

Les techniques de positionnement des SmartPhones pour la réalité augmentée

Synthèse de Projet de Veille Technologique

Nous avons vu au fil des articles présentés sur ce blog l'état des techniques de positionnement sur SmartPhones dans le cadre de la réalité augmentée. Nous avons distingué deux problématiques principales : le positionnement en extérieur et le positionnement en intérieur. Toutes deux ont des contraintes, des mises en œuvre et des domaines d'application en réalité augmentée très différents. Cela nous a permis d'effectuer un premier classement des techniques de positionnement, qui sont nombreuses et variées ; nous nous sommes ensuite attachés à rechercher les performances de ces différentes techniques, que ce soit au niveau de la précision, le coût, l'échelle d'utilisation, etc.

Nous avons tout d'abord jugé bon de nous renseigner sur toutes les techniques de positionnement disponibles sur SmartPhone et les types de capteurs utilisables. Nous avons ensuite cherché à faire correspondre ces capteurs à des types d'applications en réalité augmentée en s'appuyant notamment sur des projets de recherche. Il est important de noter que dans la plupart des cas, plusieurs techniques sont utilisées et combinées pour une même application : cela permet d'améliorer la fiabilité et les performances, et de combler la faiblesse d'un capteur avec l'avantage d'un autre.

Nous avons également parlé des traitements effectués sur les données récupérées par les capteurs : en effet, les données de géolocalisation ne sont généralement pas utilisables telles quelles dans les applications de réalité augmentée, et nécessitent par exemple d'être nettoyées des parasites, traitées en regard d'une base de données pré-enregistrée, ou encore de donner lieu à des calculs d'orientation de la caméra.

Afin de rédiger nos précédents articles, nous avons rassemblé de nombreuses publications sur le sujet, dont une liste sera disponible dans notre rapport. Ces documents sont soit disponibles gratuitement sur Internet, soit en accès à la bibliothèque de l'École.

Le plan que nous proposons de mettre en œuvre dans notre rapport final est le suivant :

Introduction

1. Technologies disponibles

1.1 Capteurs disponibles

1.2 Réseaux exploitables

2. Techniques employées

2.1 La réduction de bruit

2.2 La géolocalisation radio

2.3 La reconnaissance d'images

2.4 Le recoupement de données

3. Bibliographie

Conclusion




0 comments

Panorama des outils de travail collaboratifs : Bilan

Projet de veille technologique : bilan sur les outils de travail collaboratif

Au fil des différents articles postés sur ce blog, nous nous sommes attachés, afin de réaliser un véritable panorama, de traiter à la fois le sujet de façon générale (qu'est-ce qu'un outil de travail collaboratif, quelle est son utilité, etc.) et de façon plus spécifique (quels sont les différents outils existants, quels sont leurs avantages, etc.). Voici donc une brève synthèse des articles que nous avons postés.

Introduction

Dans notre premier article, nous avons dans un premier temps expliqué l'origine des outils de travail collaboratif : en effet, l'idée est tout simplement d'améliorer l'efficacité en facilitant la collaboration des individus. Nous avons également donné une courte définition de ce qu'est un outil de travail collaboratif, et nous avons indiqué les grands types d'outils qui peuvent être cités. Enfin, nous avons vu un exemple très célèbre d'outil de travail collaboratif : Wikipédia.

État de l'art

Par la suite, nous avons commencé un rapide état de l'art des outils de travail collaboratif existants, à travers notamment deux exemples que nous avons personnellement expérimentés : MOSS 2007 et Redmine. Nous avons alors indiqué les différentes possibilités qu'offraient ces outils, ainsi que, de notre point de vue, leurs avantages et inconvénients respectifs.

Cas particuliers

Enfin, nous nous sommes attachés à examiner de façon plus détaillée deux outils bien spécifiques : les Google Documents et Jazz, un outil payant proposé par IBM. De la même façon, nous avons vu les avantages et inconvénients de ces outils ainsi que des guides d'utilisations à travers des vidéos/tutoriels postés sur le blog.

Plan du rapport

Pour le rapport final, nous suivrons le même plan d'approche que celui que nous avons suivi jusqu'ici, et que nous avons annoncé dans notre article d'introduction :
  1. Origine des outils de travail collaboratifs : un bref historique, ainsi que les raisons qui ont entraîné leur développement.
  2. Définition : qu'est-ce qu'un outil collaboratif? Quels sont leurs propriétés? Les différents types d'outils?
  3. État de l'art : une liste aussi complète que possible des différents outils de travail collaboratifs existants, avec leurs points forts et leurs faiblesses.
  4. Fonctionnement détaillé : pour un outil bien choisi, on entrera dans le détail en expliquant son fonctionnement, les protocoles utilisés, etc.
Ce projet est encadré par Jean-Yves Martin et mené par Victorien Foret et Jérôme Vasseur.

0 comments

Internet au service de la mobilité

Synthèse du projet de veille technologique: Internet au service de la mobilité


Lors de notre veille technologique, nous avons étudié les différents enjeux et problèmes liés à l'internet mobile. Nous allons dans cet article dresser un bilan de notre travail.

Une première analyse du marché nous a permis de constater que le nombre d'acteurs en place est très important. Bien que Apple avec son iPhone et Google avec Android semblent être les principaux leaders, nous pouvons également citer RIM avec son blackberry bien connu du monde de l'entreprise, Nokia, Windows Phone ou encore Palm pionnier pendant un temps mais désormais en perte de vitesse. A cette diversité s'ajoute la multitude des portables et des smartphones aux performances et caractéristiques toutes différentes, ainsi que leurs différents OS comportant souvent plusieurs versions parfois même incompatibles.

Cette diversité globale engendre pour les entreprises qui désirent s'installer sur le marché de l'internet mobile des choix à opérer et des difficultés en termes de coût et d'objectifs. Voici quelques questions qu'elle aura à se poser avant de commencer à développer son application mobile. Quelle est la cible visée, professionnels ou particuliers ? En effet, dans le cas d'une application professionnelle, Blackberry, fort de son expérience, sera peut être plus adapté. Sur quels OS développer l'application ? Ceci induit une autre question, de quelles capacités l'application a-t-elle besoin ? Dans le cas où elle doit être développée sur plusieurs plateformes, comment gérer ce développement afin de réduire au mieux les coûts ?

Une question importante concerne également l'éventuelle interaction de l'application avec le système d'information de l'entreprise. En effet nous avons vu que des problèmes existent en terme de sécurité, notamment lorsque les employés utilisent leur smartphone personnel pour accéder, via des applications, à des données personnelles ou confidentielles stockées sur les serveurs de l'entreprise. Quelles solutions faut-il donc mettre en place pour palier aux éventuelles failles de sécurité?

On constate que l'un des principaux enjeux de l'internet mobile concerne l'interopérabilité des plateformes. Quelques outils permettent d'ores et déjà de développer conjointement sur plusieurs plateformes à partir d'un code unique. On peut citer par exemple Titanium ou PhoneGap qui se basent sur le langage HTML et javascript et qui permettent d'obtenir après compilation une application native.

Il est vrai qu’aujourd’hui il y a une nette prépondérance des applications natives pour la présentation de contenu web par rapport au seul navigateur. En effet, elles offrent un affichage optimisé pour un écran de mobile et une utilisation beaucoup plus ergonomique. De plus, le navigateur ne prend pas en compte les fonctionnalités du téléphone sur lequel il est installé alors qu’une application native bien conçue peut utiliser les fonctionnalités offertes par le smartphone (accéléromètre, glisser-déposé, géolocalisation, reconnaissance vocale…) pour offrir à l’utilisateur une efficacité accrue. C’est pourquoi de nombreuses applications sont créées seulement pour afficher du contenu web (LeMonde, Facebook…).

Mais cette multiplication pose de nombreux problèmes, d’une part pour l’utilisateur qui est obligé de se limiter dans le nombre de ses applications au risque de ne plus s’y retrouver et pour la sécurité de son smartphone, et d’autre part pour les acteurs économiques qui doivent faire face à un coût exorbitant pour être visible sur toutes les plateformes.

Ainsi, de plus en plus de regard se tournent vers le développement actuel d’HTML 5 qui permettrait de revenir vers le navigateur. En effet, HTML 5 offre au navigateur la possibilité d’élargir son champ d’action. Cela permettra au navigateur d’utiliser les caractéristiques du smartphone en terme d'interactivité avec l'utilisateur (glisser-déposer, stockage de données...). Il permettra également de faciliter sensiblement l'accessibilité au contenu et l'interopérabilité étant donné que les formats propriétaires tels que Flash ou SilverLight pourraient être concurrencés par des éléments tels que <audio> ou <video>.

Néanmoins HTML 5 n’est pas encore prévu pour tout de suite et les applications elles sont déjà là et bien implantés dans les usages des internautes mobiles. De plus, même avec les possibilités élargies qu'apporte HTML 5, le navigateur ne peut faire face à des applications natives conçues spécifiquement pour un type d'appareil.

Ce ne sera donc pas la fin des applications mais on peut raisonnablement parier sur un rééquilibrage applications natives / applications web après l'entrée des standards HTML 5 dans nos navigateurs.


Plan pour le rapport final :


1. Analyse du marché de l'internet mobile
2. Les différents enjeux
  • l'interopérabilité
  • les coûts de développement et l'implantation sur le marché
  • la sécurité
3. Une solution d'avenir : HTML5
4. Autres solutions pour développer des applications natives

0 comments

Application de la logique de Hoare aux réseaux de régulation génétique - Bilan

Au fil des articles que j'ai postés sur ce blog ces derniers mois, j'ai tenté de présenter les notions importantes relatives à mon sujet de Master Recherche. Ces notions se trouvent au croisement de trois domaines :

  • la bio-informatique, qui est l'étude des procédés informatiques au sein des systèmes biologiques,
  • l'informatique théorique, pour ce qui est de la vérification de programmes,
  • la théorie des graphes, qui permet la modélisation de systèmes et l'utilisation d'outils de vérification.

Au cours de cet article bilan, je vais revenir rapidement sur les outils propres à ce sujet, en insistant sur leurs avantages et leurs faiblesses.

Le modèle de Thomas

Je vous avais tout d'abord présenté le modèle de Thomas, qui permet la modélisation d'un système de gènes en interactions à l'aide d'outils mathématiques discrets. Il consiste tout d'abord en l'élaboration d'un graphe de régulation génétique, qui se construit et se comprend de façon très intuitive, les nœuds représentant les gènes et les arcs leurs influences mutuelles. Lorsqu'une paramétrisation est définie relativement à un tel graphe (permettant de quantifier la force des interactions), on obtient un réseau de régulation génétique, qui est un outil définissant entièrement le système, tant au niveau de sa structure que de sa dynamique. Il est donc possible à partir d'un réseau de régulation de construire un graphe d'états-transitions, qui représente toutes les évolutions possibles du système.

La grande force du modèle de Thomas est d'abstraire les niveaux d'expression des gènes en les représentant par des valeurs discrètes (plutôt que par des valeurs continues de concentration des protéines), ce qui permet de compenser le manque de données quantitatives relatives aux systèmes étudiés. Cependant, ses deux principaux points faibles sont la taille du graphe d'états, qui subit une explosion combinatoire relative au nombre de gènes du système, et la définition de la paramétrisation, car il est souvent difficile de trouver la paramétrisation qui modélise le comportement que l'on souhaite étudier, parmi toutes les paramétrisations possibles sur un graphe de régulation.

L'étude par les logiques temporelles

Les logiques temporelles sont un premier outil d'étude des réseaux de régulation. Elles permettent de formuler, puis de vérifier à l'aide d'algorithmes, des propriétés sur un graphe d'états et sur les évolutions possibles du système qu'il représente. On peut par exemple étudier l'évolution au sein d'un graphe à partir d'un état, sur un chemin donné ou sur tous les chemins qui partent de cet état. Ces logiques ont été définies pour l'étude de systèmes automatiques et sont très bien adaptées à l'étude des graphes. Cependant, leur utilisation dans ce cadre nécessite la construction du graphe d'états, qui n'est pas possible pour des réseaux de grande taille pour des raisons de temps et de mémoire.

L'étude par la logique de Hoare

Le sujet de mon Master Recherche consiste en l'étude d'une alternative aux logiques temporelles pour l'étude des réseaux de régulation. Cette alternative repose sur la logique de Hoare, qui était à l'origine définie pour la vérification de programmes informatiques. Cette logique manipule des triplets de Hoare, qui permettent de caractériser un programme (composé d'une instruction ou d'une suite d'instructions) à l'aide d'une pré-condition et d'une post-condition. L'écriture d'un triplet de Hoare signifie que sous réserve que la pré-condition soit vraie avant l'exécution du programme, alors la post-condition sera vraie après. La définition et la manipulation de tels triplets permet de prouver le comportement de parties d'un programmes pour ensuite remonter au programme entier. On peut enfin définir l'outil de plus faible pré-condition sur un triplet de Hoare (pour un programme et une post-condition donnés) qui permet de lui donner un pouvoir d'expression maximal.

L'application de la logique de Hoare aux réseaux de régulation génétiques nécessite de voir un tel réseau de régulation comme un programme informatique. Cela est possible si on considère des instructions de type incrémentation ou décrémentation d'un gène. Si on définit un programme caractérisant une évolution du système et si on formule une post-condition souhaitée, on peut alors utiliser l'outil de plus faible pré-condition, qui indique si l'évolution et la post-condition données existent et sont compatibles, et qui donne des conditions nécessaires sur les niveaux d'expression initiaux des gènes et sur la paramétrisation du réseau. Cette approche (complémentaire à celle des logiques temporelles) possède le double avantage de ne nécessiter que le graphe de régulation pour fonctionner. Ainsi, on se passe de construire la paramétrisation et le graphe d'états, sur lesquels on parvient cependant à obtenir des informations.


Le stage d'application de mon Master Recherche consistera dans un premier temps en l'implémentation de cette application de la logique de Hoare, afin d'automatiser la recherche de propriétés sur la paramétrisation. Puis, dans un deuxième temps, il sera question d'ajouter la dimension temporelle à cette application à partir d'une définition des triplets de Hoare prenant déjà en compte cette dimension.

0 comments

La norme ACPI

Projet de veille technologique : la norme ACPI

Synthèse des articles

Dans cette série d'articles, nous nous sommes attachés à décrire précisément la norme, son cadre d'application, son fonctionnement, ses limitations et son avenir.

La norme ACPI est une norme ayant pour but de gérer simplement la mise hors tension de différents éléments matériels d'un ordinateur.

Cette norme a évolué au fil des années et de son implémentation sur les ordinateurs personnels.[1]

[1] : La norme ACPI

Succédant à l'APM, la norme ACPI n'a été standardisée que très tard et a donc été mal implémentée. Nous nous sommes plus particulièrement intéressé à son implémentation dans le noyau Linux.

D'un point de vue technique, nous nous sommes penchés sur le désassemblage d'une table DSDT(Cette table contient des informations et une configuration sur le système de base), nécessaire lorsque l'on souhaite comprendre de près le fonctionnement de l'ACPI, en particulier sa gestion sous GNU/Linux.[2]

[2] : Désassembler une table ACPI

D'un point de vue système, nous nous sommes intéressés à l'approche faîte par le noyau Linux, notamment via l'architecture de fichier mise en place. En particulier via l'architecture de /proc/acpi, nous avons vu de quelle manière il était possible d'exploiter ces informations à l'aide de scripts ou de programmes plus avancés.[3]

La modification à chaud d'une table DSDT [4] ainsi que l'envoi des signaux ACPI [5] ont été abordés.

[3] : Gestion de l'ACPI sous GNU/Linux

[4] : Modifier une table DSDT à chaud sur un système GNU/Linux

[5] : Envoyer des signaux ACPI

Dans une dernière partie, ce sont les nouveautés de la norme ACPI 4 et ses évolutions futures [6] qui nous ont attiré. Malgré la récente publication d'une nouvelle version de la norme ACPI, il existe maintenant des alternatives, comme l'UEFI

[6] : Nouveautés de la norme ACPI 4 et évolutions futures

Articles de blog relatifs à la norme ACPI

Articles de blogs traitant de l'ACPI

Glossaire

  • ACPI : Advanced Control Power Interface
  • APM : Adanced Power Management
  • DSDT : Differentiated System Description Table
  • UEFI : Unified Extensible Firmware Interface

0 comments

Cryptographie : le bilan !

Cryptographie : le bilan !

Nos deux scientifiques Alice et Ben vont ici résumer leur travail qui consistait à dresser un état des lieux des différents algorithmes de cryptage de l'information, et d'en étudier les caractéristiques, tant sur le plan de la sécurité, de la confidentialité et de l'authenticité, que sur celui de la complexité.

Histoire de la cryptographie

Alice et Ben ont donc commencé par explorer le passé et sont revenus très loin dans l'Histoire, afin de remarquer que la problématique de sécurisation de l'information échangée datait de l'invention de l'écriture, puisque on peut observer des hiéroglyphes modifiés afin d'obscurcir le sens des inscriptions.

Cette pratique n'a donc cessé d'évoluer, passant par l'utilisation de la scytale par les spartiates, ou le célèbre code de César. Plus récemment, au XX ème siècle, ont été inventés le fameux chiffre de Vernam (appelé également masque jetable), puis la machine Enigma utilisée par les allemands lors de la Seconde Guerre Mondiale, dont la cryptanalyse réussie a permis en partie la réussite des Alliés.

De nos jours, enfin, l'ère informatique, notamment marquée par Internet, utilise notamment la cryptographie par clef publique, dont il existe plusieurs protocoles d'échange de clé.

Si vous cliquez sur cette ligne, vous accéderez à l'article concerné.

Principes de la cryptographie moderne

Alice et Ben se sont ici concentrés sur les principes qui régissent le chiffrement dans notre société actuelle, à l'heure d'Internet, des transactions bancaires, et des moyens de télécommunication.

On peut distinguer deux méthodes principales:

  • La cryptographie symétrique ou cryptographie à clé secrète, qui a l'avantage d'être très rapide d'utilisation mais l'inconvénient d'être assez facilement cassable.
  • La cryptographie asymétrique ou cryptographie à clé publique, qui, contrairement à la cryptographie symétrique, s'avère être puissant au niveau du chiffrage mais possède une complexité temporelle beaucoup plus élevée.

Il existe donc la notion de cryptographie hybride, qui utilise les deux techniques afin de bénéficier à la fois de la rapidité de la cryptographie symétrique et de la robustesse de la cryptographie asymétrique.

Si vous cliquez sur cette ligne, vous accéderez à l'article concerné.

Cryptographie et théorie de l'information

Alice et Ben, après avoir fait un peu le tour des principes de la cryptographie moderne, se sont quand même demandés comment on pouvait mesurer de manière rigoureuse la sûreté d'un système cryptographique. C'est ainsi qu'ils ont (re)découvert la notion d'entropie.

L'entropie, ici, est une fonction mathématique qui, dans le cadre de l'essai d'un déchiffrage, mesure la quantité d'information nécessaire, exprimée en bits, afin de pouvoir déchiffrer une information cryptée donnée. Le but d'un bon système cryptographique est donc de maximiser cette entropie pour toute information chiffrée.

L'utilisation de l'entropie comme mesure de la sûreté d'un système cryptographique a permis de rapprocher la cryptographie à la théorie probabiliste de Shannon, connue sous le nom de Théorie de l'information (1948).

Si vous cliquez sur cette ligne, vous accéderez à l'article concerné.

Et quels sont donc les enjeux des recherches aujourd'hui?

Nos deux cryptologues préférés se sont donc penchés sur les enjeux qui pèsent sur la recherche actuellement.

En principe, les cryptographies à clé secrète et à clé publique sont sans faille. En pratique, il en est autrement. En effet, Alice et Ben se doutent que n'importe quel espion, suffisamment doué, n'a pas une infinité d'algorithmes de cryptage à tester et qu'il lui suffit de connaître les clés échangées pour déchiffrer toute l'information cryptée qui viendra en aval.

Les enjeux sont donc de garantir la sécurité de l'échange de clés.

Que vont faire Alice et Ben prochainement ?

Pour pouvoir rendre compte de l'intérêt et de l'apport scientifique et culturel qu'ont suscités ces travaux sur la cryptographie, Alice et Ben vont, d'ici quelques semaines, mettre en pièce jointe sur ce blog un rapport dont le plan sera:

  • Brève introduction sur Alice, Ben et leur mission cryptographique
  • Histoire de la cryptographie et quelques cryptosystèmes connus
  • Quelques algorithmes de cryptanalyse (si on a le temps, car non traité dans les blogs)
  • Probabilités et théorie de l'information au service de la cryptographie
  • Protocoles d'échanges de clés: les nouveautés

Alice et Ben vous donnent donc rendez-vous le 14 Mars afin de découvrir le rapport de leurs aventures cryptographiques. :)

0 comments

Se Cacher sur Internet - Synthèse

Ainsi s’achève notre série d’article sur le thème « Se Cacher sur Internet ». Voici un petit récapitulatif de ce que vous avez pu y trouver.

Résumé des articles

Lors de notre article d’introduction (« Se cacher sur Internet »), nous avons situé les bords du problème : Comment protéger ses données personnelles lors d’une navigation sur internet ordinaire. Nous avons soulevé plusieurs questions qui peuvent être rassemblées autour de deux grands thèmes : la technique (moyens et méthodes informatiques) et la politique, car défendre sa vie privée, c’est l’affaire de tous.

Trois articles ont ensuite été consacrés à la technique, et deux à l’évolution de la politique sur le sujet.

Dans le deuxième article (« Vos données personnelles sur Internet »), nous avons présenté les différentes parties accédant à l’adresse IP lors du transport de l’information via le réseau Internet. Nous avons notamment expliqué les manipulations de l’IP qu’effectue le moteur de recherche Google. D’où la place importante de l’adresse IP parmi les données personnelles.

Le troisième article (« Quels moyens pour se cacher sur Internet ») nous a permis de décrire deux moyens pour garder son IP secrète : les serveurs proxy et le réseau TOR. Ces moyens présentent tout de même certaines limites.

Dans le quatrième article (« Transmission sécurisée de données sur Internet »), ce sont plusieurs autres outils qui ont été discutés : les réseaux privés virtuels (VPN), les protocoles de communication sécurisés (SSL, SSH, TLS…), le logiciel libre de cryptage de courriels PGP. L’objectif était de montrer la multitude des méthodes de sécurisation des communications.

Le cinquième article (« Se cacher sur Internet – Aspects juridiques »), se concentre sur ce que permet, autorise et interdit la loi en matière d’anonymat. Depuis l’arrivée d’Internet, la loi a connu d’importantes évolutions. Les dernières lois en date (Hadopi et LOPSI2) ainsi que les lois à venir (ACTA) renforcent les moyens des forces de l’ordre pour collecter nos données personnelles. Pour autant, jamais nous n’avons été aussi libres de crypter toutes nos données… Qui a dit que ce monde n’était pas paradoxal ?

Enfin, dans notre sixième article (« Réseaux sociaux et persistance des données personnelles »), nous avons voulu dresser un constat alarmant quant aux politiques de nos chers réseaux sociaux préférés. A quand la revente de Twitter et l’utilisation commerciale de nos vies privées? Quand Facebook enlèvera-t-il purement et simplement les messages nous rappelant que nous sommes sur le point de tout dévoiler ? Peut-être dans pas si longtemps. Il est encore temps de tout effacer, mais ce n’est pas si simple…

Bilan

Ainsi, nous avons pu explorer avec vous ce sujet. Des techniques existent, mais il est loin d’être aisé de conserver l’anonymat. On doit se résoudre à accepter ce risque, le paysage légal changeant trop rapidement. Alors ne mettons pas n’importe quoi sur la toile. Cela se retourne toujours contre nous. Bien plus que des techniques pour garder l’anonymat, c’est une réelle prise de conscience collective dont nous avons besoin.

0 comments

Green IT : Gérez la consommation d'énergie de vos systèmes informatiques

Cet article sera intégralement dédié à la présentation du livre Green IT : Gérez la consommation d'énergie de vos systèmes informatiques d’Olivier PHILIPPOT. Il constitue un bref résumé de son contenu et nous ne pouvons que vous encouragez à en faire l’acquisition pour approfondir le sujet.

En 2009, selon le rapport DETIC, les technologies de l’information et de la communication ont consommé 60 TWh, représentant 13,5 % de la facture électrique française. De plus, cette consommation croît très fortement et pose un problème écologique majeur, lié à la production de l’énergie nécessaire.

Les rapports Meadows (1972 - traduit en français par « Halte à la croissance ») et Facteur 4 (1996) du Club de Rome proposent une solution simple : réduire la consommation d’énergie. Il est en effet plus rentable d’économiser de l’énergie que de la produire. Par exemple, 1 kWh informatique utile économisé sur un ordinateur, c’est de 15 à 60 kWh d’énergie primaire.

La première façon de mettre fin au gaspillage est de dimensionner convenablement le parc informatique. Bien souvent, les ordinateurs restent allumés de façon constante sans être utilisés, tout comme les imprimantes (il est facile de s’en rendre compte à Centrale). Selon une étude Enertech pour l’ADEME, sur la totalité des imprimantes laser auditées, plus de 60 % sont toujours activées. De surcroît, beaucoup de sociétés laissent tourner leur parc informatique la nuit et les week-ends comme l’a montré une étude faite en 2004 (After-hours Power Status of Office Equipment and Inventory of Miscellaneous Plug-Load Equipment - Berkeley National Laboratory - Janvier 2004) .

Un autre point à prendre en compte et plus surprenant est la consommation importante lorsque l’ordinateur est éteint mais toujours branché : elle est en moyenne de 117 kWh/an.(Étude Enertech pour l’ADEME vue précédemment).

Naturellement, le principal frein aux avancées dans le domaine de l’informatique verte est bien entendu l’utilisateur : habitudes, mauvaise compréhension des architectures réseaux ou de l’ordinateur sont autant de points qui empêchent la mise en place d’une gestion cohérente des économies d’énergie. Au niveau supérieur, les sociétés sont également responsables en ne sensibilisant pas assez leurs employés sur les moyens pourtant simples pour aider l’entreprise à alléger sa facture énergétique. Enfin, pour une réelle efficacité, les gouvernement doivent mettre en place des mesures visant à favoriser les comportements « verts » en mettant à disposition des documents et en encourageant les entreprises par la perspective des réductions des factures d’électricité. Cet élément jouera un rôle d’autant plus conséquent, au vue des hausses annoncées des prix de l’énergie pour les années à venir.

De nombreuses méthodes sont alors disponibles. Ainsi, le renouvellement du parc informatique s’il est possible et pertinent (il s’agit de prendre en compte également le recyclage du matériel usagé) et grâce à l’évolution des systèmes d’exploitation aussi bien que des processeurs sont des moyens d’action liés aux avancées technologiques. Des logiciels sont également à disposition et permettent de réduire de façon conséquente la consommation de l’équipement informatique.

Afin de répondre au mieux au besoin, des entretiens ou des sondages comme nous en avons menés lors des articles précédents peuvent permettre de connaître au mieux le besoin énergétique réel. Il existe également des sociétés spécialisées dans l’audit énergétique telles que Terra Nova, Aergy ou Neoditel.

Si cela est trop complexe ou trop coûteux, un inventaire complet du parc informatique, associé à une grille de consommation moyenne ou des formules disponibles sur Internet permettent déjà d’avoir une idée assez juste de la situation. Afin d’ajouter de la précision au calcul tout en maintenant des coûts d’études réduits, on peut installer des wattmètres qui vont mesurer la puissance consommée par le matériel.

L’auteur préconise alors la mise en place d’une politique énergétique, expliquant le but de l’action tout en restant simple, succincte et cherchant à impliquer au maximum l’utilisateur final au processus d’économie d’énergie. Ainsi, une telle politique a été mise en place chez Vodafone en Grèce et a permis d’économiser 1 million d’euros sur la facture énergétique (pas seulement informatique). En France, l’État met en place des actions et des aides pour le PME pour soutenir l’informatique verte. Ces actions seront d’autant efficaces que l’on pourra évaluer les gains potentiels.

En conclusion, les utilisateurs n’ont pas encore pour la plupart des comportements conformes à l’informatique verte. Dans le passé, cela était principalement lié à des contraintes technologiques et organisationnelles, mais les progrès constatés ne justifient plus une telle aberration. Les sociétés doivent ainsi réaliser un inventaire associé à un audit des consommations. Elles pourront alors estimer les gains réalisables et mettre en place une politique énergétique. Dans l’idéal un responsable ou une équipe entière seront dédiés à l’informatique verte dans l’entreprise.

0 comments

Le GeoPDF

Synthèse sur le Geospatial PDF


Comme nous avons pu le voir le long de ce projet, la création de cartes PDF géoréférencées possédant plusieurs couches d'informations, visibles ou non, et avec lesquelles des outils d'analyse spatiale sont disponibles semblent être très intéressant pour la diffusion et l'utilisation sur terrain de données spatiales mais aussi dans le domaine du bâtiment ou encore celui du tourisme.

TerraGo en s'associant à Adobe à proposer des outils permettant la création à partir de Systèmes d'Informations Géographiques, la composition de documents existants, la lecture et l'utilisation de Geospatial PDF ( voir le post sur les outils de création et d'utilisation du GeoPDF). Les outils de lecture et d'analyse sont gratuits. Néanmoins, les suites permettant la création de ce type de document sont très couteuses.
Il est néanmoins apparemment possible de créer ce type de document, à partir de bibliothèques de création de PDF en Java ou C++, même si la géoréférenciation, bien qu'expliquée dans supplément de Adobe à la norme ISO 32000 et dans les recommandations de l'OGC (qui ont d'ailleurs été très légèrement modifiées fin janvier 2011) ne soit pas très simple à implémenter.

L'intégration d'un plugIn permettant d'exporter les résultats d'analyse spatiale en GeoPDF semble être dans la continuité des recherches sur la génération de cartes interactives, multimédias et dynamiques. Néanmoins, devant le développement d'une multitude d'outils par TerraGo, il me semble qu'il faut encore réfléchir au véritable enjeu de ce type de document. En effet, celui semble particulièrement intéressant dans la planification urbaine pour communiquer des résultats scientifiques, environnementaux ou sociologiques et inciter à la collaboration et à la participation des différents acteurs locaux. Il ne doit pour autant devenir un ersatz de SIG , ce qui nuirait beaucoup à sa facilité d'utilisation.


0 comments

Le défi des nouvelles technologies

Dans nos posts précédents nous avons vu l’influence néfaste qu’internet et les nouvelles technologies pouvaient avoir sur le cerveau. Nous avons vu les réactions virulentes que pouvaient avoir certains vis-à-vis du changement induit par ces nouveaux médias de communication. Une communauté d’individus se positionnant en « résistants » et refusant le changement que celles-ci nous impose.

La réaction de Clay shirky est très critique à l’égard de cette pensée et en particulier de l’article de Nick Carr. Il explique dans son article « Why abundance is good » en quoi toutes ces évolutions sont positives. Celui-ci les considère comme une période de transition, permettant d’arriver à un nouvel équilibre dans lequel la technologie ne pourra être constatée que comme un réel progrès.

Dans un premier temps celui-ci concède à Nick Carr la réalité de l’influence des technologies sur la manière de pensée. Celui-ci garde cependant un avis relativement neutre sur la négativité de ces changements.

Par des réflexions assez ironiques (“it’s not just Carr’s friend, and it’s not just because of the web—no one reads War and Peace. It’s too long, and not so interesting”) Shirky exprime son désaccord avec la thèse de Carr sur l’effet d’internet sur notre manière de lire.

Cependant Shirky défend à son tour la thèse selon laquelle :

  • L’internet a effectivement produit un lourd changement : Un changement de fond dans la manière d’accéder à l’information. Un changement dû à une abondance des données accessibles.
  • Il ne faut pas combattre ce changement mais l’accompagner : selon Shirky, ce changement n’est pas optionnel, mais un changement majeur qui mènera à quelque chose de positif.

L’article de Shirky a suscité de vives réactions notamment de la part de Nick Carr qui le dit « optimiste ». D’autres lui rétorqueront que l’abondance dont il a fait l’apologie a mené à une baisse significative de la qualité de l’information.

Shirky s’est défendu dans un second article de réponse dans lequel celui-ci a expliqué que

  • La perte de cette capacité à se concentrer est inéluctable, et inhérente à l’environnement qui restait autrefois relativement vide. Selon lui l’état actuel du monde fait que l’on ne pourra retrouver un tel niveau de concentration. Il faut faire avec l’abondance de notre temps.
  • Le nouveau challenge est maintenant de parvenir à contrôler cette manne d’informations afin d’être moins distrait et de pouvoir arriver au changement bénéfique.

0 comments

Synthèse sur les applications des réseaux de Petri

Synthèse sur les applications des réseaux de Petri


Pour davantage de clarté, je propose de revoir ensemble les différents éléments de réponse que nous avons apportés à la question des applications des réseaux de Petri. Je consacre donc cet article à une petite synthèse sur le problème.

Je reprends mon accroche : les réseaux de Petri forment un outil de modélisation à la fois élégant et d’une grande puissance. C’est notamment dans le contexte en pleine croissance des systèmes informatiques, que cet outil prend toute son importance. Il devient nécessaire de pouvoir concevoir des systèmes toujours plus complexes, trop pour nos humbles capacités, et surtout de s’assurer de leur bon fonctionnement en termes de sureté et de vivacité (s’interdire des comportements et s’obliger à d’autres).
Pour résoudre ce dernier problème, plusieurs armes sont à notre disposition : les batteries de tests, la simulation, la vérification de modèles (ou model-checking dit-on dans la littérature). La vérification de modèles, que permettent les réseaux de Petri, consiste à prouver des propriétés logiques sur l’évolution du système (voir le merveilleux article de Maxime Folschette, à ce sujet, qui présente la logique temporelle). L’avantage de cette méthode, en comparaison des tests et de la simulation est son exhaustivité. Malheureusement, elle n’échappe pas à ce qu’on appelle l’explosion combinatoire, l’impossibilité de mener les calculs à leur terme pour les systèmes trop complexes, tandis que les deux autres méthodes peuvent se contenter d’une approche moins complète.

Les réseaux de Petri font preuve d’un degré d’adaptation étonnant, et c’est ce qu’on peut remarquer au travers des différents exemples que nous avons rencontrés au fil des articles. On les trouve dans des domaines allant de la biologie à l’étude des organisations.
Tout d’abord les réseaux de Petri, de par les GRAFCET, ont d’abord servi à la spécification des cahiers de charges, dans le domaine industriel, avant de devenir un langage de programmation graphique pour les automates programmables.
Les réseaux de Petri trouvent leur place dans le domaine informatique et sont particulièrement adaptés à la modélisation des protocoles de communication. Par l’intermédiaire des automates finis, de proches voisins, ils ont trait à la compilation de programmes. Enfin, dans la mesure où l’informatique s’oriente vers les systèmes répartis et où les réseaux de Petri se montrent plus intuitifs pour modéliser les comportements parallèles, on les utilise de plus en plus pour modéliser des systèmes informatiques.
En biologie, les réseaux de Petri se montrent d’une grande aide pour modéliser les complexes processus chimiques que l’on rencontre dans les mécanismes du vivant, comme l’apoptose. D’autres phénomènes comme l’expression des gènes peuvent aussi bénéficier de cet outil de modélisation.
Dans l’étude des organisations, cette fois, les réseaux de Petri offrent une meilleure évaluation des systèmes. À l’aide des réseaux de Petri temporisés, il devient possible de quantifier les performances d’une organisation. À l’aide des réseaux de Petri stochastiques, les études statistiques peuvent se décomposer sur des phénomènes de base.


Un réseau de Petri


Le plan que j’ai adopté pour l’enchainement de mes articles sera entièrement repris pour le rapport final. Je le rappelle ici :

1. Présentation des réseaux de Petri
2. Les réseaux de Petri dans l’industrie
3. Les réseaux de Petri dans l’informatique
4. Les réseaux de Petri en biologie
5. Les réseaux de Petri dans l’étude des organisations

Je tiens à remercier pour ce projet toutes les personnes qui ont pu m'aider de près comme de loin. Je remercie finalement et tout particulièrement mon encandrante québécoise, Hanifa B.

Afin de vous faciliter la navigation sur le blog, voici les liens de mes articles :
1. Préliminaire
2. Notions de base sur les réseaux de Petri
3. Les réseaux de Petri dans l’industrie
4. Les réseaux de Petri dans l'informatique
5. Les réseaux de Petri en biologie
6. Les réseaux de Petri dans l'étude des organisations
7. Synthèse : ici-même !

0 comments

Synthèse de notre projet de veille sur XML 2.0

Dans cet article, nous nous attacherons à mettre en valeur de manière synthétique la démarche qui fut adoptée lors de notre veille. Nous rappellerons ainsi quels ont été les principaux jalons et points essentiels de notre travail. Nous nous proposons également de présenter une trame qui constituera l’ossature du rapport final.

À l’occasion de ce projet de veille, consacré à XML 2.0, et encadré par Jean-Yves Martin, nous avons tenté de répondre à la problématique suivante : quel est l’état d’avancement du projet XML 2.0 ? Afin de répondre à cette problématique nous avons été amenés à dégager des pistes de réflexions qui ont fait l’objet de nos différents articles.

Nous nous sommes donc d’abord intéressés à l’état actuel des discussions, ce qui a révélé une certaine torpeur autour de XML 2.0. Le sujet est en effet assez peu discuté actuellement comme en témoigne un certain nombre d’articles de blogs que nous avons utilisés (qui datent pour certains de plusieurs années) même si le sujet a été succinctement débattu récemment sur divers forums de développeurs . Nous nous sommes efforcés de nous imprégner du contexte dans lequel s’inscrit le projet XML 2.0 et de comprendre ce qui a fait le succès de XML et l’échec relatif de XML 1.1.

Ces différents aspects nous ont invités à nous poser la question de savoir quelles motivations pouvaient susciter une évolution majeure vers XML 2.0. Quelles en sont les idées principales ? Existe-t-il des idées, des fonctionnalités dont l’intégration à XML 2.0 ne suscite aucun débat ou au contraire existe-t-il des divergences au sein de la communauté de développeurs et contributeurs au projet. Comme nous l’avons détaillé, lors de notre troisième article, certaines modifications (comme la suppression de DTDs internes) sont souhaitées par la majorité tandis que d’autres créent débat. Notre dernier article permet d’ailleurs de résumer les différences de XML 2.0 vis-à-vis de ses prédécesseurs et de mieux comprendre l’intérêt d’une nouvelle version. Cette première question en amène une seconde : qui sont les contributeurs à ce projet ? Sont-ce de grands groupes informatiques? Existe-t-il vraiment un mouvement de fond pour donner du poids à cette version ? À cette question, nous pouvons avancer, prudemment, que nous n’en sommes qu’aux prémices et que par conséquent, peu d’intervenants de poids s’intéressaient de manière ouverte à cette technologie. Cela laisse à penser que cette technologie est encore loin d’être mure.

Ce faisant, nous nous proposons de suivre le plan indiqué ci-dessous pour notre rapport final :

1 – Présentation du contexte, de l’intérêt des technologies XML

2 - À quoi ressemblerait XML 2.0 ?

- Les fonctionnalités à ajouter/modifier/supprimer
- Comparaisons avec XML / XML 1.1

3 – Acteurs et contributeurs à l’évolution de XML

4 - Bilan de la veille : Quel avenir pour XML 2.0 ?

0 comments

Accessibilité des sites internet aux personnes en situation de handicap visuel

4 mois au cœur de l'accessibilité du Web


2005 a vu la promulgation d'une importante loi pour l'égalité des chances et des droits des personnes handicapées, et ce dans de nombreux domaines. L'informatique, de plus en plus présente dans notre société, y occupe évidemment une place importante.
Dans le cadre de cette loi, les sites de l'État doivent être rendus accessibles à tous d'ici le printemps 2011, mais elle est aussi, et surtout, l'occasion de commencer à sensibiliser les personnes à la question du handicap visuel dans le monde de l'internet. Ainsi, et depuis maintenant 4 mois, nous avons eu l'occasion de travailler sur cette problématique grâce à ce travail de veille technologique.

Nous avons tout d'abord réalisé un travail préliminaire de prise de conscience sur la notion de handicap (avec notamment la distinction mal-voyant/non-voyant) et de son influence sur l'utilisation des outils du web [La handicap visuel]. À la suite de cela, nous avons eu la chance et le plaisir de rencontrer Maryse P. : en tant que première concernée, elle nous a apporté son point de vue d'utilisatrice non-voyante, nous permettant ainsi de compléter et concrétiser nos premières observations[Le handicap visuel et internet au quotidien].
Nous avons poursuivi par une analyse des outils et techniques existants permettant le respect de certaines normes internationales [Le Label BrailleNEt] ainsi que la mise en place de "bonnes pratiques" tant du point de vue du webmestre que du développeur [De l’existant vers de « bonnes pratiques »].
Enfin, nous avons souhaité réaliser une petite revue du web accessible ainsi que des dernières actualités pour faire état de l'avancée des mentalités et de la législation en la matière [Petit tour d'horizon de l'accessibilité du Web et inquiétudes].
Malheureusement, nous sommes forcés de constater que peu de sites ont, pour le moment, été (correctement) rendus accessibles. Une pétition a été lancée fin 2010 afin de rappeler les objectifs fixés et d'obtenir enfin des avancées significatives.

Un rapport plus complet sera proposé afin de conclure ce travail. Le plan adopté suivra la progression des articles de ce blog :
  • Rappel des grandes lignes de la loi de 2005
  • Le handicap visuel : définition, distinction aveugle/mal-voyant, principales conséquences fonctionnelles
  • Point de vue des utilisateurs: rencontre avec Maryse P.
  • Analyse de l'existant et normes à respecter pour plus d'accessibilité
  • Les limites de l'accessibilité
Nous tenons également à remercier Maryse P. pour son accueil chaleureux, Michel L. pour ce sujet et son suivi et enfin, Myriam S. pour son accompagnement tout au long de ce projet.

Pour finir, nous vous recommandons quelques comptes Twitter à suivre (ainsi que les blogs associés) pour aller plus loin dans la veille sur ce sujet :
  • AccessNum : compte de l'Institut de l'Accessibilité Numérique (IAN) ;
  • AccessibiliteWb : compte d'un association québecquoise ;
  • HandiPratique : compte de site de référence du même nom.

0 comments

Vers une carte d'identité des langages de programmation - Synthèse

Synthèse


Dans le cadre du projet de veille technologique, nous avons procédé à une description de ce qu'est un langage de programmation, dans le but de pouvoir les classer dans ce que nous avons appelé une carte d'identité. Après avoir détaillé le sujet de façon plus précise, nous avons donc décrit un certain nombre des caractéristiques les plus importantes d'un langage de programmation. Finalement, nous avons abouti à un squelette que nous avons utilisé pour décrire quelques exemples.

  • La présentation du sujet et son lancement à travers un plan d'action ont été faites dans le premier article [1].
  • Le deuxième article a consisté à cerner le domaine d'étude : nous avons décidé de ne pas tenir compte des langages de requête (exemple : SQL) ou de balisage (exemple : HTML) dans la définition de l'expression "langage de programmation" [2].
  • Par la suite, nous avons défini les différentes caractéristiques que nous avons identifiées comme étant inhérentes à la notion de langage de programmation. Ainsi, nous avons été amené à parler des paradigmes de programmation [2] [3], de la turing-complétude [4], et des différentes sortes de typage [5].
  • Finalement, le dernier article paru contenait le squelette final de la carte d'identité, ainsi que deux exemples appliqués aux langages C++ et Prolog [6].

Cette étude, répartie sur quatre mois, nous a permis d'élargir nos connaissances en matière de programmation. En effet, les notions abordées sont abstraites, et on a tendance à ne pas les remarquer lorsqu'on les utilise. La carte d'identité, si elle est bien utilisée, va permettre aux personnes qui cherchent un langage de programmation pour un projet bien spécifique de choisir celui qui leur conviendra le mieux, à condition d'avoir une base de données bien remplie.


Plan du rapport


  • Introduction
    • Problématique : définition du sujet
    • Contexte : préciser les limites de l'étude
  • Caractéristiques d'un langage
    • Structuration et explication de l'ensemble des caractéristiques mises en évidence dans le précédent article [6].
  • Cartes d'identités
    • Quelques exemples de cartes d'identités sur des langages connus et moins connus.
  • Conclusion

[1] http://ser-info-02.ec-nantes.fr/users/info3/weblog/17853/Vers_une_carte_didentite_des_langages_de_programmation.html
[2] http://ser-info-02.ec-nantes.fr/users/info3/weblog/e1f06/Langage_et_paradigme_definitions.html
[3] http://ser-info-02.ec-nantes.fr/users/info3/weblog/0e335/Paradigmes_de_programmation_generalites_et_exemple.html
[4] http://ser-info-02.ec-nantes.fr/users/info3/weblog/692b5/Questce_quun_langage_turingcomplet_.html
[5] http://ser-info-02.ec-nantes.fr/users/info3/weblog/62da8/Langages_de_programmation__typage_et_divers.html
[6] http://ser-info-02.ec-nantes.fr/users/info3/weblog/451a5/Une_carte_didentite_des_langages_de_programmation.html

0 comments

LES LOGICIELS LIBRES POUR L’ENSEIGNEMENT SUPÉRIEUR - SYNTHÈSE

SYNTHÈSE

Il existe aujourd'hui de nombreux logiciels libres répondant à des besoins très variés, cependant, bien que certains établissements ont déjà recours à leur utilisation, ils constituent de manière générale une ressource encore assez mal exploitée. C’est pourquoi l’objectif du projet de veille technologique que nous avons mené au cours des derniers mois était de mettre en avant des solutions logicielles qui pourraient s'avérer être des outils intéressants, en particulier dans le cadre de l'enseignement supérieur.

La démarche retenue afin de mener à bien ce projet a été, dans un premier temps, d'identifier un certain nombre de besoins en termes d'outils informatiques pour les établissements de l'enseignement supérieur. Cette investigation a été menée tant sous un point de vue pédagogique, qu'administratif ou associatif. Par ailleurs, les besoins identifiés ont été corrélés avec les technologies existantes et émergentes, et avec les outils utilisés par les universités du monde entier.

Problématique

L’apparition des nouvelles technologies dans les établissements de l’enseignement supérieur tel qu’un accès illimité aux ressources disponibles sur internet, l’apparition des ordinateurs dans les salles de cours, la généralisation de l’utilisation de l’informatique pour les fonctions de gestion et de communication, par exemple... a engendré de nouveaux besoins, de nouvelles attentes et surtout de nouveaux champs d’utilisation de l’informatique pour les établissement d’enseignement. Il existe sur le marché de nombreuses solutions logicielles permettant de répondre à ces demandes mais le monde du libre, outre son lien indéniable avec le monde universitaire, a l'avantage de proposer des solutions pérennes, adaptables et souvent à moindre coût.

Tour d’horizon des solutions existantes

Afin de répondre aux attentes de l’enseignement supérieur, on distingue principalement deux types de solutions:

  • Celles permettant de répondre à des besoins ponctuels et qui se traduisent par l’implémentation d’un logiciel dédié à une seule tâche;
  • Celles permettant de répondre à des problématiques plus globales liées à la gestion administrative et pédagogique des établissements.

Cependant, il est intéressant de noter que les solutions proposées se sont développées en parallèle de l’utilisation croissante et diversifiée des nouvelles technologies et plateformes au sein des établissements de l’enseignement supérieur.

En effet, aujourd’hui la grande majorité des établissements dispose d’un parc informatique complet qui permet de donner, à chaque membre de l’établissement (enseignants, personnel administratif, élèves), un accès aux ressources informatiques, internet ou intranet. En conséquence, la communication, la gestion de la scolarité des élèves (inscription, départ en stage...), et la mise à disposition des ressources pédagogiques se fait de plus en plus en ligne. Des outils tels que les environnements numériques de travail (ENT) ou ceux dédiés aux e-learning trouvent alors leur place sans difficultés au sein des établissements de l’enseignement supérieur.

Par ailleurs, les ordinateurs ont depuis quelques années envahi les salles de cours tant du côté du professeur que de celui des élèves. En conséquence, nombreux sont les enseignants qui mettent à disposition leur support de cours et les élèves se dispensent de plus en plus de prendre des notes. Cependant, la prise de note en cours tend à favoriser la concentration, la mémorisation et l’apprentissage. Il existe aujourd’hui deux solutions principales, déclinables sous la forme de logiciels libres, proposant des méthodes de prise de notes en cours adaptées à l'utilisation des ordinateurs et tablets PC, par exemple :

En outre, le marché des Smartphones et des tablettes tactiles est en plein essor et encourage le développement de solutions de M-Learning facilitant un mode d’apprentissage sans contraintes (où on veut, quand on veut, ce que l’on veut). Ceci remet également en cause les a priori négatifs dont souffrent les téléphones portables dans l’environnement des salles de cours. En effet, pour les réhabiliter, on met aujourd’hui en avant leurs atouts en termes de communication, élèves-professeur en particulier, en cours comme à l’extérieur.

Bilan

On constate que l'introduction des nouvelles technologies et le développement de nouveaux logiciels applicables à l’enseignement supérieur ou répondant à ses besoins spécifiques modifient les rapports entre les acteurs (élèves, professeurs, personnel administratif) et les méthodes d'enseignement. Ceci nous amène à repenser sans cesse l’enseignement au futur et à mener une veille permanente sur le sujet.

En outre, l'existence de ces logiciels pose un certain nombre de problèmes d’accessibilité. En effet, d’une part, les logiciels libres présentent de nombreux avantages dont l’adaptabilité, cependant leur implémentation demande un effort important. D’autre part, le système d’enseignement supérieur dans lequel nous évoluons n’est pas encore positionné sous le signe de “un ordinateur par élève” ou encore “un Smartphone pour chacun”.

En conclusion, cette étude a permis de mettre en avant l'existence de quelques solutions libres afin de répondre aux besoins propres aux établissements de l'enseignement supérieur mais il convient de prendre du recul lorsqu'on évoque leur mise en place dans un contexte concret.


RAPPORT FINAL

Ce projet de veille sur les logiciels libres pour l’enseignement supérieur va donner lieu à un rapport dont l’objectif sera de présenter la démarche adoptée, les solutions trouvées et de les analyser. En accord avec la synthèse présentée ci-dessus, les points suivants seront abordés :

I. Positionnement du problème

  1. Nouvelles technologies et création de nouveaux besoins
  2. Les logiciels libres

II. Solutions logicielles pour l'enseignement supérieur

  1. Généralisation de l'utilisation de l'outil informatique
  2. Un accès à Internet généralisé
  3. Ordinateur et tablet PC de plus en plus présents dans les salles de cours
  4. Développement des technologies mobiles: Smartphones et tablettes tactiles

III. Des solutions miracles ?

  1. Évolution des relations
  2. Mise en œuvre
  3. Accessibilité

0 comments

Réalité augmentée sur Smartphone


Le positionnement 6 axes sur smartphone


Comme nous l'avons vu dans nos articles précédents, l'utilisation de la réalité augmentée sur les smartphones via des techniques de géolocalisation (GPS, boussole, accéléromètre ,etc) donne des résultats très critiquables au niveau de la pertinence de l'information rajoutée. C'est-à-dire que le placement des éléments virtuels à l'écran souffre d'une certaine imprécision par rapport à l'image rapportée par la caméra. Ce problème peut être entièrement résolu si l'on positionne justement la caméra directement par rapport à l'image filmée. Ceci avait aussi été évoqué ici avec ARToolKit qui fourni une suite de méthodes logicielles pour extraire la position de l'appareil photo selon ses 6 degrés de liberté en prenant comme point de repère une mire artificielle. Mais quant est-il concernant le portage sur smartphone de cette technologie ?

La bibliothèque ARWiz de int13


Nous allons revenir un peu plus en détails sur la solution la plus aboutie du marché, à notre connaissance, qui intègre de façon performante et adaptée les principes d'ARToolKit pour les faire fonctionner sur smartphone. Il s'agit de la bibliothèque ARWiz développée par int13, un éditeur de jeux vidéo sur smartphones qui a choisi de d'utiliser au mieux les capacités de ces machines. Une application est déjà commercialisée, ARDefender, et atteste pleinement de l'efficience de la technologie sur les smartphones de Samsung (Bada) et d'Apple.

Il ne nous a pas été possible pour l'instant de tester en détail les performances d'ARWiz, mais ses concepteurs la décrive comme une bibliothèque spécialement pensée pour l'architecture ARM et optimisée pour obtenir un temps de calcul très faible (1 à 5 ms) et une précision renforcée (voir sur leur site pour la description complète). Au niveau des ressources utilisées par ARWiz, une vidéo de démonstration assez impressionnante nous montre la version 2.0 de leur technologie tourner parfaitement à 30 images par secondes sur une Nintendo DSi en n'utilisant que 25% des ressources CPU. Ceci atteste d'autant plus l'efficacité de leur code que la console portable ne dispose que d'un CPU à 133 MHz alors que ceux des smartphone tournent autour de 1GHz.

Dans une interview en anglais, Stéphane Cocquereaumont, co-fondateur d'int13 et chef du développement, revient en particulier sur les raisons qui les ont poussées à développer leur propre bibliothèque. Il explique ainsi que lorsqu'ils ont cherché à utiliser de la réalité augmentée sur smartphone les implémentations d'ARToolKit étaient très lentes et instables. Enfin, il évoque leur volonté de s'affranchir à terme du marqueur de position, jusqu'ici indispensable.

0 comments

L'avenir de la réalité augmentée en extérieur

Il est difficile d’envisager concrètement quelles applications de la RA seront utilisées dans la prochaine décennie, néanmoins nous allons voir aujourd’hui vers quoi celles-ci s’orientent et des problèmes de sociétés qu’elle pourrait causer.


L’un des débats majeurs existe déjà, il concerne la vie privée. Actuellement, des campagnes de sensibilisations sont mises en place pour que les gens prennent conscience de l’importance de gérer leur identité virtuelle, notamment vis-à-vis des jeunes qui ne s’en soucient guère tant que la gratuité est présente. Il est fort probable que ces campagnes gagnent en activité, dû au fait que les lois ne sont pas identiques d’un pays à l’autre. C’est d’ailleurs l’une des problématiques posées par Facebook : les informations sur la vie privée peuvent être collectées grâce au fait que les serveurs ne se situent non pas en France -qui interdirait cela- mais aux Etats-Unis. Tant qu’une harmonisation mondiale de la législation n’aura pas été mise en place, il est fort probable que ces problèmes persistent et gagnent en intensité à cause des applications de la réalité augmentée.


trouver des informations sur une personnes
Illustration de ces possibles dérives, une entreprise suédoise, The Astonishing Tribe, développe actuellement une
application pour identifier des personnes inconnues. Le concept est simple : il suffit de sortir son téléphone et de pointer la caméra sur la personne à identifier. Le logiciel de reconnaissance faciale crée alors un modèle 3D de la personne et l’envoie au serveur qui le compare à ceux présents dans la base de données. Un système de cloud computing permet l’identification de la personne et renvoie le nom de la personne ainsi que des liens vers les réseaux sociaux partagés par l’utilisateur, voire son numéro de téléphone. Pour que l’identification puisse être réalisée, il faut que l’utilisateur à identifier se soit inscrit en indiquant le type de données qu’il souhaitait partager. En apparence donc, la vie privée de ceux ne souhaitant pas être identifiés est préservé. Cependant, rien n’empêche une autre personne de nous inscrire, de renseigner notre numéro de téléphone... A force de vouloir disposer d’informations sur tout et tout le monde, il deviendra difficile de protéger sa vie privée, à moins de rester extrêmement vigilant.


Un autre souci qui pourrait apparaître est la crainte de voir une fracture générationnelle se former. En effet, nous devenons de plus en plus dépendants à la technologie. Schématiquement, cela peut donner naissance à une sorte de conflit entre générations : les “anciens” sont plus réticents aux changements que les “jeunes”, qui sont particulièrement intéressés par toutes les dernières innovations. Les “anciens” qualifieraient ainsi les nouvelles technologies de superflues, tandis que les “jeunes” y verraient une évolution naturelle de celles-ci. Néanmoins, cela ne posera probablement aucun problème. D’une part parce qu’en fin de compte, cela s’est toujours déroulé ainsi dans tous les domaines innovants (Le rock’n’roll était à l’origine décrié par les amateurs de musique classique...). D’autre part parce qu’une partie de la population montre un intérêt grandissant envers ces innovations, aussi bien un intérêt pratique que pour le plaisir de les expérimenter. Enfin, les intérêts économiques vont permettre d’accélérer le développement d’applications innovantes.


D’autre part, on peut se demander si cette déferlante d’informations n’est pas symptomatique d’une forme de dépendance à l’information. Avec Internet, un flot d’informations est disponible en permanence et le développement de la réalité augmentée accompagne cette déferlante de données. Le problème étant que ces données brutes risquent de créer un trop plein d’informations et par la même occasion de vider l’information de son sens. En effet, si on peut tout savoir sur tout et sur tout le monde, ne risque-t-on pas d’assister à une certaine perte de valeur de l’information? Sans contrôle de la pertinence et de la valeur de ces informations, il sera difficile de s’y retrouver.



Malgré le fait que la réalité augmentée touche quelques points sensibles, elle n’en est pas l’instigatrice principale : par exemple, le problème de la vie privée touche Internet dans sa globalité, la réalité augmentée n’en est qu’un vecteur. Assurément, elle nous réserve bien des surprises, des bonnes comme des mauvaises. Des techniques se mettent en place pour le traitement des verres pour rendre les dispositifs de réalité augmentée bien plus portatifs (ce fut l’une des raisons vu il y a deux semaines concernant la non-mise en place de système Head-Up Display sur les pare-brises). Personnellement, nous imaginons bien que nous évoluerons dans un monde avec des panneaux publicitaires vierges et que nous serons équipés de lunettes high-tech permettant de faire apparaitre des publicités en réalité augmentée, qui ne seraient bien entendu pas diffusées au hasard mais en fonction des lieux où nous allons régulièrement et de ce que nous achetons, grâce à un système de cookies pour nos lunettes. Cette fois-ci, le navigateur, ce sera nous.

0 comments