Recevez notre Documentation

Le blog

L'actualité de JLB Informatique et de la gestion de l'information.

HTML 5… 4, 3, 2, 1…

Les dernières spécifications pour le html (HTML 4) datent de 1997. Inutile de préciser que les besoins des utilisateurs depuis plus de 10 ans ont changé! L’objectif de la version HTML 5 est de prendre en compte ces nouveaux besoins technologiques sur le web.

En effet, à l’heure de l’omniprésence des réseaux sociaux, des échanges de fichiers, d’agrégation d’actualités, et des manipulations d’images ou de vidéos, les éditeurs d’applications web doivent rivaliser d’ingéniosité pour contourner les lacunes actuelles :

  • soit en développant ces manques et en s’assurant que les fonctionnalités ont le même comportement sur tous les navigateurs du marché
  • soit en utilisant des technologies propriétaires (Flash ou Silverlight pour les interfaces dites « riches », Google gears pour l’accès hors ligne par exemple) avec toutes les problématiques qu’engendre l’intégration de produits externes à l’application elle même

Outre les améliorations permettant de donner une vraie structure sémantique des pages web, cette version offre, en natif, de nouvelles API (Bibliothèques de fonctionnalités) pour enrichir la présentation et l’utilisation des pages web. On retrouve entre autre les API :

  • Glissé-déposé : différentes fonctions pour améliorer l’ergonomie, et les manipulations de données, fichiers…
  • Vidéo et audio : gestion, affichage de vidéos ou de sons
  • Géolocalisation : utilisation des données géographique
  • L’accès hors ligne : gestion des données hors ligne pour un mode déconnecté

Le W3C l’organisme en charge des spécifications de l’HTML5 considère tout de même qu’il faudra entre 5 et 7 ans avant que l’ensemble des utilisateurs puissent profiter de toutes ces possibilités, car même si les nouveaux navigateurs intègrent déjà ces spécifications, il faudra que les particuliers et les entreprises utilisent ces nouvelles versions de navigateurs.

La révolution mobile

A peine l’annonce d’Apple faite le 27 janvier dernier et 75,9 % des Français connaissent déjà l’iPad.

Il faut dire que l’iPhone a sûrement contribué à faire connaitre ce support à mi-chemin entre un ordinateur portable et un iPhone.

Les caractéristiques générales sont intéressantes:

- taille : 242.8 mm x 189.7 mm x 13.4 mm
- poids : 680 g pour le modèle WiFi seulement, 730 g pour la version incorporant la connectivité 3G
- écran de 9,7 pouces
- résolution de 1024 par 768
- connectivité : Wi-Fi (802.11 a/b/g/n) et Bluetooth 2.1, pour la version 3G : UMTS/HSDPA (850, 1900, 2100 MHz), GSM/EDGE (850, 900,1800, 1900 MHz)
- GPS intégré, boussole, accélèromètre
- mémoire de stockage : 16, 32 ou 64 Go de mémoire flash

Mais alors est-ce que cette tablette web, tactile et ergonomique va enfin porter le phénomène de la mobilité aux ressources documentaires ?

Un des points noirs de l’iPad (comme l’iPhone) reste l’environnement fermé du développement des applications.

Les éditeurs sont obligés de travailler selon les règles définies par Apple, et doivent faire valider leur application avant de pouvoir la retrouver sur l’Apple Store.

Oui mais… il reste que les applications web resteront accessibles via le Wi-Fi et le navigateur de l’iPad donnant la possibilité au logiciel d’être développé de la façon dont l’éditeur le souhaite, et sans aucun contrôle possible d’Apple.

Alors va-t-on bientôt voir dans les centres infos doc cet outil disponible au public pour consulter le portail documentaire indiquant les disponibilités des ouvrages et apportant une aide pour localiser en temps réel l’ouvrage ou le document recherché ?

L’archiviste pourra-t-il gérer son espace de stockage directement dans ses salles en utilisant le logiciel pour se déplacer dans les rayons et retrouver les documents, ou archiver les documents ?

Ou mieux, un photographe enverra-t-il des photos en direct pendant son reportage dans la photothèque d’un service de communication via l’option 3G lui permettant d’accéder à internet et donc à l’application ?

ISAD-G

ISAD-G est une norme de description d’un document archivistique. C’est un moyen de structurer les informations de son fonds. Dans le cadre d’une recherche, le lecteur aura un outil pour comprendre rapidement si ce document est intéressant ou non pour sa recherche. Il faut le voir comme un classement « intellectuel » de ses données.

La norme ISAD-G contient 26 éléments répartis en sept zones d’information (identification, contexte, contenu, conditions d’accès et d’utilisation…). Ces différents champs ne sont pas obligatoires pour la plupart mais permettent de renseigner à chaque étape de la vie d’un document, depuis sa création jusqu’à son classement, des données qui pourront être utilisées et diffusées internationalement.

La norme ISAD-G peut donc devenir l’outil qui rendra la description de vos fonds structurée et hiérarchisée.

Attention il ne faut pas confondre avec la norme EAD qui est un des moyens pour exporter ces données et permettre éventuellement l’échange de ces données. ISAD-G gère un ensemble de données indépendamment des formats de sortie.

Pour plus d’information nous vous conseillons notamment le site des Archives de France
http://www.archivesdefrance.culture.gouv.fr

Pourquoi utiliser les métadonnées dans sa photothèque

Les métadonnées servent à identifier et retrouver une ressource. Pour les images, elles vont servir à les indexer, que ce soit avec des informations techniques (EXIF) ou descriptives (IPTC). Même si les métadonnées XMP sont une alternative possible, on retrouve principalement l’utilisation des deux métadonnées précédentes dans les phototèques.

En effet, l’intêret d’utiliser des métadonnées est multiple :

  • l’indexation de l’image est indépendante du système et/ou d’un produit
  • les métadonnées sont intégrées au fichier image et elles sont donc en permanence accessibles
  • elles peuvent rendre l’indexation automatique dans une photothèque

Prenons un exemple concret:

Un service de communication gère son fonds d’images à l’aide d’un logiciel de photothèque.

Le photographe indépendant qui réalise les photos pour ce service revient de reportage. Ces images contiennent déjà des données EXIF qui sont fournies par l’appareil photo. Le photographe ajoute des données IPTC à ses images pour décrire son reportage, ses images, etc.

Son travail terminé, il transmet ces images au service de communication de l’entreprise qui lui a commandé ce reportage. Le logiciel de photothèque va leur permettre de créer un reportage en intégrant par lot toutes les images en ajoutant automatiquement les métadonnées dans les notices descriptives.

L’indexation est automatique.

Enfin, si un organisme extérieur commande des photos et n’utilise pas le même logiciel de photothèque, il pourra à son tour manipuler les métadonnées pour obtenir les informations des images.

Pratique non ?

Le protocole Wave : vers de nouveaux outils collaboratifs

Tous les sites spécialisés, les blogs, et même les médias nationaux en parlent: Google Wave est le phénomène du moment.

Ce service (basé sur le protocole Wave) pourra notamment vous permettre d’échanger, partager, manipuler, constituer des documents en temps réel, et discuter avec les personnes que vous avez choisi dans une fenêtre de travail, une « Wave ». Vous pourrez également avoir en permanence un historique des conversations, visualisable à la façon d’une vidéo avec une barre de navigation. Toutes ces informations laissent entendre que Google Wave se révèlera être un outil collaboratif très puissant.

Mais au delà du service que va proposer Google, que se cache-t-il derrière le protocole Wave ?
Ce protocole risque t-il de faire évoluer les outils collaboratifs existants ?

Wave Federation Procol (appellation complète de ce protocole rendu open source par google) est un protocole de communication basé sur XMPP, pour Extensible Messaging and Presence Protocol (protocole extensible de messagerie et de présence) déjà utilisé par des messageries instantanées.
On pourrait donc voir différents acteurs tel que Yahoo, Aol, etc… mais aussi les acteurs du logiciel libre
développer leur propre application basée sur ce protocole mais avec d’autres ergonomies ou fonctionnalités.

Alors est-ce que les éditeurs de logiciels seront de la partie ?
Va-t-on voir naître de nouvelles applications collaboratives complètes ou émerger des fonctionnalités collaboratives dans certains produits utilisant cette nouvelle technologie ?

Il faudra attendre encore quelques mois pour savoir si ce protocole s’imposera dans la sphère du collaboratif, uniquement pour les services web ou également par des éditeurs de logiciels métier.

En attendant voici quelques liens intéressants pour mieux comprendre Google Wave et son protocole :

http://www.fredcavazza.net/2009/06/01/google-wave-email-im-wiki-mashup/
http://www.zorgloob.com/2009/05/google-wave-platteforme-de.asp
http://wave.google.com/help/wave/about.html
http://www.waveprotocol.org/

Retoucher ses images en ligne

Divers outils permettent de retailler, découper ou ajouter un filigrane facilement en ligne sur des images. Mais savez-vous qu’il existe des logiciels complets de traitement d’images en ligne ?

Bien sûr, ils ne sont pas aussi performants que leurs ainés (Photoshop, Gimp, Paint Shop Pro..), mais ils possèdent quelques avantages qui pourraient vous séduire…
Ils sont gratuits la plupart du temps et disponibles en ligne. Aucune installation n’est nécessaire sur votre ordinateur, vous pouvez les utiliser sur n’importe qu’elle autre ordinateur.
Comme de nouveaux services en ligne, ils sont graphiquement soignés et ressemblent, pour certains, à des logiciels connus, offrant ainsi les repères nécessaires à une prise en main rapide.

Voici quelques fonctionnalités intéressantes disponibles sur le site pixlr.com :

  • Gestion des calques
  • Gestion des filtres et effets
  • Gestion de l’historique
  • Export en Jpeg et png

Cependant, ces services présentent encore quelques inconvénients…

Qui dit logiciel en ligne dit dépendance vis-à-vis des capacités de votre réseau et de votre connexion internet.
La qualité des traitements n’est pas aussi bonne que les poids lourds du marché, même si la différence reste imperceptible pour la plupart des traitements classiques…

Le traitement des images en ligne reste malgré tout une solution souple et efficace pour la plupart des corrections d’images quotidiennes. En revanche, si vous devez faire des traitements plus complexes, ils n’arriveront pas encore à vous faire oublier vos outils actuels.

Mais attention, les capacités des serveurs et des connexions internet sont en permanence en progrès, et l’écart pourrait continuer à diminuer et en faire de sérieux outsiders face aux géants du domaine. A suivre…

Quelques liens à tester :

http://www.pixlr.com
http://www.picnik.com
http://www.splashup.com
http://www.sumopaint.com