Profitez des offres Memoirevive.ch!
Comdays et l’interface du futur

Pour une raison que j'ignore, ça fait 3 semaines que j'ai cette humeur en préparation et franchement, bien que je n'ai pas passé nuit et jour dessus, j'ai eu beaucoup de peine à concrétiser mes pensées et à les mettre sur cette page. J'espère que ça ira.

Introduction

Les 28 et 29 octobre derniers, je me suis rendu aux Comdays (journées de la communication) à Bienne en Suisse dans le but d'écouter des orateurs qui, dans une large mesure, ont parlé des accès à Internet à "large bande" (ou Broadband).

Désolé pour la piètre qualité de ces deux photos!

Pour la troisième année consécutive, les organisateurs de cette conférence ont réussi à regrouper une jolie brochette de personnalités. La liste complète des intervenants ainsi que le programme de la manifestation peuvent être consultés ici. À quelques exceptions près, tous les conférenciers étaient très intéressants. J'ai même eu la "chance" de voir Ignacio Ramonet! Quoi vous ne connaissez pas ce gars? Mais c'est le président du directoire du Monde Diplomatique! Je sais que ça va faire un choc à certains, mais je ne lui ai pas demandé d'autographe.

Le point rouge c'est moi! Oui... toujours au fond de la classe, c'est mieux pour dormir!

D'habitude, je ne rédige pas une humeur sur chaque congrès ou manifestation auquel je participe, ça ferait descendre en flèche les statistiques de Cuk et, franchement, vu que je dors un peu parfois, mon humeur ne serait pas très intéressante (j'en entends déjà certains au fond de la classe dire: une de plus!).

Enfin, je ne vais pas réaliser un compte rendu littéral de ce que j'ai vu ou entendu. Toutefois, ces deux journées ont soulevé suffisamment de questions et d'interrogations dans mon esprit pour que je les partage avec vous. Hé bien oui, vos réflexions et avis m'intéressent aussi!

Rapide point de la situation dans le sans-fil

Tout d'abord, comment parler de quelque chose qui traite de la communication sans parler du sans-fil? C'est impossible.

Même si un certain nombre de nos lecteurs vivent dans des grottes, je les soupçonne d'avoir nécessairement du entendre parler des technologies sans fil (wireless). En effet, comment être passé à côté des déferlantes (perturbations?) Wi-Fi, GSM, GPRS, UMTS, WCDMA, EDGE, EGPRS, HSCSD, Bluetooth, RFID et j'en passe, qui ont déferlé sur nos ondes ces dernières années?

Chacune de ces technologies a ses avantages et inconvénients notamment parce qu'elles sont jeunes. Pour certaines, on en est plus ou moins à la version 1.0 du protocole et, quoique les spécialistes en disent, il n'est pas toujours évident de faire marcher nos gadgets sans fil du premier coup (j'en connais au fond de la salle qui essaient encore!).

Toutes ces technologies tentent de répondre à différents problèmes et défis technologiques (vitesse, délai, propagation, portée, etc.).

Si on regarde dans le passé et qu'on tente une analogie, on pourrait comparer la période actuelle du sans-fil à celle des années 80 à 90 quand tous les réseaux "filaires" n'étaient compatibles qu'avec eux-mêmes... et encore. À l’époque, Ethernet et IP n'étaient qu'un duo de plus sur le marché des réseaux locaux (LAN) qui tentait de s'imposer dans un environnement on ne peut plus "hostile" et incompatible.

Déloger des monuments comme le SNA, TokenRing, FDDI, 100VG, DECnet, XNS, VINES, IPX, AppleTalk, etc. n'était pas une mission simple. Chacun avait également ses qualités et ses défauts, chacun était plus ou moins propriétaire et tentait de répondre aux besoins d'un constructeur et de ses produits.

Aujourd'hui, tout est IP et on ne peut que sourire quand on repense à tous ces médias et protocoles... Pourtant, on a bien travaillé comme ça pendant une vingtaine d'années.

Cette longue analogie me sert surtout à démontrer que les technologies de télécommunication sans fil en sont à leurs balbutiements et qu'on verra encore beaucoup d'évolutions ces prochaines années. Toutefois, l'industrie ne va pas continuer à inventer et développer 50 protocoles pour 50 besoins différents!

Il ne peut en rester qu'un (OK, on n’est pas dans Highlander, il en restera peut-être 2 ou 3).

Je ne dis pas que parmi tous les protocoles existants aucun ne survivra. Mais ils évolueront, fusionneront ou mourront au gré des progrès que cette industrie réalisera.

À fond, à fond, à fond...

Si on résume l'avenir des télécommunications, ce n’est pas très compliqué: à fond!

Et qu'est-ce que nous réserve le futur du "large bande" (broadband), que ce soit au niveau filaire ou sans fil? Facile: toujours plus de vitesse, encore plus de vitesse et vachement plus de vitesse!

OK, mais encore? La convergence, la convergence, la convergence. Heu, d'accord, mais c'est quoi la convergence? Toutes les communications sont transportées via le même média!

Si on résume, la télévision, la radio, Internet, le téléphone, etc., tout devra passer par le même média (avec ou sans fil).

Au-delà de ce rêve qui sera un jour réalité, il est important de se demandersi cette évolution permettra aux opérateurs de tout bêtement réduire leurs charges ou si l'utilisateur y gagnera réellement quelque chose.

À long terme (10 à 20 ans), je n'ai aucun doute sur le fait que n'importe quel équipement électronique sera interconnecté à des vitesses inouïes, 100 Mbit/s voire 1 Gbit/s avec ou sans fil (pour ce dernier, espérons quand même qu'on trouve un traitement efficace contre les cancers d'ici là).

Aujourd'hui, ces problèmes de vitesse ou de bande passante ne m'intéressent plus beaucoup car je sais que ce n'est qu'une question de temps avant qu'on ne satisfasse tous les besoins.

Personnellement, je pense que les défis de demain ne sont plus dans la vitesse ou les simples performances de notre processeur ou de nos connexions à Internet. Je sais bien que certains vont me dire que ce n'est jamais assez, mais ce n'est qu'une question de temps avant que la plupart des utilisateurs basiques (lambdas) soient satisfaits de leur vitesse de connexion et des performances générales de leur machine.

Le grand défi que l'industrie informatique va devoir à présent relever sera de développer la prochaine interface: l'interface du futur.

L'interface du futur

Dans les années cinquante, nous communiquions avec "nos" ordinateurs au travers de cartes perforées. Dans les années soixante-dix, première grosse révolution: les claviers nous permettaient de nous rapprocher des machines au travers d'un langage que seuls certains chevronnés (pour l'époque) maîtrisaient. Puis, en 1984, seconde grosse révolution, on communique avec sa machine préférée via un mulot. Pardon, une souris.

C'est à cette époque également qu'est apparu un drôle d'acronyme: GUI. Le Graphical User Interface (GUI) est par définition, l'interface graphique entre nous et notre machine.

En 1984, Apple révolutionnait l'interface entre l'être humain et la machine

Alors nous y voilà, 20 ans plus tard, nos processeurs peuvent cavaler à pratiquement 4 milliards de cycles par seconde, ils peuvent adresser la mémoire sur 64 bits - soit jusqu'à 16 Exabytes (c'est 16 milliards de GBytes!), ont des "pipes" à plus finir, ont plus de bases de registres que nous avons de doigts aux mains et aux pieds... Et pourtant, même sur la machine la plus puissante du marché, Word 2004 met 3 secondes à s'ouvrir alors qu'il mettait aussi 3 secondes dans sa version 5.1 sur mon 6100/66AV il y a plus de 10 ans.

Je sais, je sais, Microsoft a ajouté en 10 ans autant de fonctionnalités dans ce soft que de bugs (en interne, ils appellent ça "innovation"). À se demander s'il ne valait pas mieux rester à la version 5.1 et tout simplement la rendre compatible au fur et à mesure que les nouveaux systèmes sortaient.

Bref, ce n'est pas tellement mon propos en fait.

Certes, en 20 ans, on a aussi vu l'arrivée des milliards de couleurs, on est passé d'une visualisation de 9 pouces (512 par 384) à 30 pouces (2560x1600), on ne se casse plus le dos avec des écrans de 30 kg, on est passé d'un système qui faisait "erreur 11" à "kernel panik" (OK, vachement moins souvent), les dossiers sont passés de la 2D à la 3D et notre souris a chopé plus de boutons en 20 ans qu'un ado de 16 ans.

Malgré une évolution indéniable sur 20 ans des différents systèmes, l'interfaçage et l'interaction entre nous et nos machines n'a pas tellement changé et personnellement, je pense qu'il serait temps que ce soit le cas.

Les idées...

Ce que je raconte ne surprend probablement personne. Depuis 1984, on a vu beaucoup de constructeurs essayer d'imposer un "truc" soi-disant révolutionnaire.

Entendons-nous bien sur le thème "révolutionnaire" (non, j'en vois déjà qui sortent leur livre rouge). Pour moi, les interfaces Mac OS X, the K Desktop Environment (KDE), Gnome, Sawfish, etc. n'ont rien de révolutionnaire. J'entends des hurlements au loin... du calme.

Il est évident qu'entre nos Mac OS 1.0 (1984) et Mac OS 10.0 (2001), il y a eu des technologies comme UNIX, Quartz Extreme, Exposé, Aqua, etc. qui ont fortement amélioré nos relations avec nos machines. Toutefois, je ne qualifie pas ces progrès de révolution mais tout simplement d'évolution.

Bien sûr, comme d'habitude, des sociétés ont pensé détenir l'interface qui allait tout révolutionner... Mais à nouveau, pour moi il ne s'agit que d'une évolution et non d'une interface révolutionnaire.

Ci-après, une copie d'écran d'un système que j'avais vu chez SGI en 93, le FSN (File System Navigator):

Exemple de l'interface FSN

En fait, comme à peu près toutes les bonnes idées émanant de SGI, ça n'a pas marché. Pourtant, avoir une hiérarchie en 3D qui est symbolisée par des couleurs et des volumes me semblait être un bon concept.

Une autre marque très connue a également essayé de trouver une solution. Il y a environ un an, Sun Microsystems a présenté une nouvelle technologie que je trouve très attrayante en démo: Looking Glass.

Une assez longue démo est disponible ici (35MB et c'est très lent)

Et je ne parle pas des dizaines de sociétés qui ont sorti des API dans le but d'ajouter une couche entre le système et nous!

Les éditeurs ne trouvant pas de solution, ce sont les constructeurs qui rentrent dans la danse et essaient de nous refourguer leur "truc" ou "bidule". Lors des derniers ITU Telecom de Genève, j'avais pu tester un écran 3D de chez Sharp qui semblait intéressant et prometteur. En effet, pas besoin de lunette spéciale ou je ne sais quoi, l'écran fournissait directement une vue en 3D de l'image et pouvait basculer en 2D sur simple pression d'un bouton.

J'étais très intéressé mais honnêtement, j'ai été un peu déçu. Un des premiers gros défauts de l'écran, c'est que l'angle de vue horizontal et vertical est faible comparé à un écran TFT classique. Les spécifications Sharp annoncent plus ou moins 120 degrés contre 160 à 180 degrés pour un écran TFT normal. Mais je pense que cette caractéristique n'est pas correcte puisque j'ai noté que dès qu'on n'est pas totalement perpendiculaire à l'écran, l'effet 3D s'estompe rapidement (quelques dizaines de degrés). Ci-dessous, une illustration de l'écran LL-151-3D (bravo au Marketing pour ce joli nom):

À 1'500 euros pour 15 pouces, ça fait 100 euros le pouce!

J'oublie certainement quelques nouveautés ici et là, mais globalement, vous avez compris l'idée de base: aucune technologie ne semble apporter une nouvelle interface graphique (en tout cas, rien de révolutionnaire!).

Conclusions

En guise de conclusion, j'aimerais un peu discuter de ce que pourrait être l'avenir.

Tout d'abord, comme dans le passé, je ne pense pas que la révolution viendra d'un seul constructeur ou d'une seule firme de développement logiciel. Je pense qu'il faudra un développement logiciel et matériel pour répondre aux besoins de l'interface du futur.

Il faut commencer par ce que nous utilisons depuis bientôt 40 ans, c'est-à-dire l'écran. Avec une résolution moyenne de 72 dpi (72 points par pouce, soit environ 28 pixels par centimètre), cette résolution est appelée à changer pour offrir à l'utilisateur une expérience plus proche de la réalité. Notre vision a une "résolution" d'environ 600 à 800 dpi en fonction de la condition physique et de l'âge du sujet.

Par conséquent, beaucoup pensent qu'un des points qui devra évoluer, c'est la résolution de notre GUI. Il y a environ 2 ans, IBM a sorti un écran TFT de 22 pouces, l'IntelliStation T221, qui peut afficher une résolution record de 204 dpi (résolution maximale de l'écran: 3840x2400) pour environ 4'000 euros (contre presque 20'000 euros à sa sortie en 2002). Mais cet écran a avant tout été commercialisé pour des secteurs bien précis comme l'imagerie médicale, mécanique, géographique, etc., pas tellement pour apporter une nouvelle "vision" à l'utilisateur lambda.

Pour bien comprendre les problèmes liés à la résolution, il faut comprendre qu'il ne suffit pas tout simplement d'augmenter les résolutions, comme l'écran IBM pour atteindre de nouveaux sommets de "visualisation". Pour illustrer ces propos, j'ai préparé un exemple tout simple:

À gauche, un dossier à 100 dpi et à droite à 200 dpi

La copie d'écran de l'icône gauche a été générée sur mon 22 pouces configuré en 1600x1200. Avec cette configuration, j'atteints une résolution d'environ 100 dpi. La copie de droite représente la même icône avec une résolution d'écran portée à 3200x2400, soit environ 200 dpi. Comme on peut le voir, ça devient illisible... Par conséquent, utiliser un écran comme l'IntelliStation T221 avec notre Mac dans sa résolution maximale n'améliorerait en rien la lisibilité, au contraire. Pour comprendre le problème, il faut savoir que c'est le système, et donc Apple dans ce cas, qui indique très clairement la taille maximale des icônes du système (128 pixels par 128 pixels dans le cadre d'OS X).

Donc, si le futur réside dans des résolutions plus élevées, il y aura de toute manière une refonte complète des API (Application Program Interface) liées au GUI d'Apple. Autrement dit, l'Apple Human Interface Guidelines devra être revu.

Mais est-ce qu'une simple augmentation de la résolution par pouce et un accroissement des effets sur nos icônes et autres parties de nos interfaces graphiques seraient suffisants à révolutionner notre système comme en 1984? Je ne le pense pas.

Est-ce qu'il suffit de faire des écrans plus grands pour révolutionner notre interaction entre nous et le Mac? Je ne le pense pas non plus.

Je veux conclure sur un constat plus que d'essayer de deviner de quoi notre interface du futur sera faite.

Aujourd'hui, j'ai un peu l'impression que nous sommes arrivés au bout de ce que nous connaissons. La puissance des ordinateurs a atteint une puissance inouïe pour les besoins de la plupart des utilisateurs (je ne parle pas des joueurs invétérés ou des gens qui aimeraient copier un film de 60 GB en 2 secondes d'un disque à l'autre, ceux-là ne seront jamais satisfaits). La plus faible carte graphique est presque deux fois plus puissante qu'un Power Mac 9500 de 1995 et enfin, n'importe quel disque dur pourrait contenir toute notre vie (sous forme de texte en tout cas). Il ne faut attendre que quelques années pour voir des disques qui se chiffrent en TB et qui pourront contenir toute notre vie filmée...

Bref, pour moi, le prochain système Mac OS 10.4 ou Longhorn ne changera pas grand-chose à mes habitudes de travail, aux "relations" que j'entretiens avec ces drôles de machines qu'on appelle "ordinateurs".

Peut-être que nous communiquerons avec nos machines grâce à des lunettes qui nous offriront une résolution de 500 dpi et, surtout, une vision à 180, voire même 360 degrés sur notre futur "bureau" (est-ce qu'il s'appellera encore comme ça?). Peut être que nos yeux "piloteront" les actions? Peut-être même que la voix sera intimement liée à nos futurs ordinateurs? Personnellement, je ne crois pas au pilotage oral, mais ça, c'est une autre histoire.

Enfin, après avoir révolutionné l'interface informatique en 1984, est-ce qu'Apple n'est pas la société qui pourrait, comme il y a 20 ans, tout changer encore une fois? À mon avis, elle en a la matière grise et les moyens financiers!

31 commentaires
1)
Tony
, le 25.11.2004 à 01:02
[modifier]

Proms again ;-)
Le domaine des interfaces homme-machine est très intéressant et fort compliqué lorsqu’on s’y intéresse de prêt.
Beaucoup de recherches sont faites surtout pour aider des gens fortement handicapés à utiliser un ordinateur et ainsi pouvoir communiquer plus facilement avec le monde.
Je ne pense pas que nous aurons une grande révolution dans les années à venir, toutefois, il y a des voies de recherche.
La vrai 3D demandera des outils de visualisation adaptés comme cet écran Sharp. Il y a aussi les hologrammes. Il reste aussi ces fameuses lunettes qui à mon avis ne sont pas la réponse car pas tellement adaptées à une utilisation de travail. On reste un peu confinés et on ne voit pas tellement le monde extérieur.
Ensuite, l’interaction avec le système doit aussi être revue. Le principe de la souris et clavier n’a pas changer depuis le départ hormis l’ergonomie.
Contrairement à toi, je crois que la reconnaissance vocale est une bonne solution mais plus pour dicter un texte que réellement commander la machine (sauf handicap).
Les commandes elles-mêmes pourraient demander de simples manipulations avec nos mains. Un peu à la manière du film de S. Spielberg « Minority report ». D’ailleurs, des recherches sont en cours au MIT pour un système qui s’en approche (j’ai malheureusement perdu le lien avec la démo).
Une autre voie est la commande par les ondes cérébrales. Encore une fois, cela sera dans un premier temps utilisé pour une catégorie de gens dont le besoin est réel. D’ailleurs, l’utilisateur lambda n’en voudra pas forcément s’il se sent à la merci de la machine.
Enfin, je pense que nous avons encore quelques bonnes années avec le mulot et les touches clavier devant nous au vu des développements et recherches encore nécessaires.
A moins d’une idée lumineuse de quelqu’un…

2)
pilote.ka
, le 25.11.2004 à 07:26
[modifier]

Moi j’aime bien Ignacio Ramonez. Le Monde Diplo me sert à me doucher le cerveau. Je conseille aussi acrimed (Action CRItique MEDia) qui donne des ficelles pour ne pas mourir bête, et bien d’autres sites qu’il faut tous lire en réfléchissant.

3)
Yip
, le 25.11.2004 à 08:05
[modifier]

Je pense qu’il y a des pistes vers les écrans tactiles, la reconnaissance et la synthèse vocales, les hologrammes et pour les imprimantes la stéréolithographie ;-), mais bon d’accord, c’est pas demain qu’on utilisera tout ça (ou une partie) et on élèvera encore des mulots pendant un moment…

4)
ToTheEnd
, le 25.11.2004 à 08:45
[modifier]

Tony: je suis tout a fait d’accord avec toi… Parler pour dicter son texte ne sera pas un problème, ce type de produits existent déjà aujourd’hui et je crois savoir que ça marche pas si mal (jamais essayé). Ma remarque était basée sur la reconnaissance vocale pour piloter l’ordinateur…

En effet, deux gros problèmes persistent: il suffit que la reconnaissance vocale ne fonctionne pas 1 fois sur 50 pour te rendre juste dingue (imagine ta souris qui ne clique pas tous les 50 cliques). Le second, c’est qu’on arrive pas à définir au niveau vocal qu’est-ce qui est lié à un ordre ou a une simple discussion avec un voisin/collègue (imagine hurler à ton collègue « ferme la fenêtre » et l’application quitte tout…). Ces 2 problèmes semblent idiots et simples, mais c’est oublié un peu vite que nous (humains) pouvons faire preuve de discernement et que la machine pas.

J’avais aussi vu au MIT une démo sur une table/ordi. C’était assez impressionnant parce que la table était en fait un écran tactile géant et tu bossais dans un environnement totalement virtuel à l’échelle d’une table… Très interessant.

T

5)
jp
, le 25.11.2004 à 09:15
[modifier]

Avec l’arrivée des ordinateurs quantiques dans ?15ans? il pourrait bien y avoir de gros changement…

Je pense qu’il n’y aura plus de clavier ni d’écran mais que tout se passera dans notre tête.

Oui, le but d’un ordinateur est d’aider l’être humain. Aujourd’hui par exemple avec une calculatrice, il faut penser au calcul, le taper sur la machine (clavier ou souris), lire le résultat (écran) et utiliser la réponse. C’est ridicule d’avoir un ordinateur avec une bande passante interne de plusieurs To/s alors que l’interface humain/machine et limité à ~10o/s. Demain quand on voudra calculer la racine 9ème d’un nombre, on pensera le faire avec notre cerveau, comme on fait 3×3=9 aujourd’hui, mais c’est l’ordinateur qui le calculera pour nous sans que l’on s’en rende compte. Je pense donc que la grosse révolution serait de supprimer toute interface « matériel » pour que l’ordinateur interagisse directement avec notre cerveau. Un peu comme si on était super intelligent…

Je vous laisse imaginer ce que cela pourrait donner, une personne avec la puissance de calcul d’un ordinateur quantique et l’imagination, la pensée, l’ame d’un cerveau humain.

Qui vivra verra.

6)
alec6
, le 25.11.2004 à 09:17
[modifier]

Je n’ai lu qu’en travers, je suis charrette…
ça ira mieux ce soir…

Et la SF dans tout ça ?
Assimov et les trois lois de la robotique…
Ghost in the Shell 1 et 2…
sujets à caution, certes, mais non sans intérêt.

à+

Alexis, à pied et tous les défauts !

7)
Inconnu
, le 25.11.2004 à 09:22
[modifier]

La question est intéressante : où en sommes nous en ce qui concerne l’informatique ? Je pense que nous sommes à un moment charnière de l’évolution avec une stagnation de la puissance processeur (même Intel l’a reconnu), des systèmes de stockage qui se cherchent (les supports physiques ont des limites de vitesse et de quantité), des périphériques (imprimantes, scanners) qui n’évoluent plus trop, les interfaces qui changent peu et des vitesses de débit qui plafonnent. C’est normal. Après des innovations et des évolutions incroyables, les solutions arrivent forcément à un plateau qu’il est très difficile de dépasser sauf à changer radicalement de technologie. Donc, tout le monde cherche de nouvelles voies et ça part dans tous les sens jusqu’à ce que l’une d’entre elle émerge et s’impose d’une façon ou d’une autre. Reste à être vigilant et à ne pas permettre que des Microsoft ou autres du genre arrivent à imposer des solutions propriétaires uniquement basées sur le profit et non sur la qualité.
Mais les perspectives sont passionantes et il ne reste plus qu’à attendre.

^. .^ GerFaut
=U= http://gerfaut.com
, http://equinoxiale.com
GerFaut c’est frais, mais c’est pas grave.

8)
Tony
, le 25.11.2004 à 10:45
[modifier]

En effet, deux gros problèmes persistent: il suffit que la reconnaissance vocale ne fonctionne pas 1 fois sur 50 pour te rendre juste dingue (imagine ta souris qui ne clique pas tous les 50 cliques). Le second, c’est qu’on arrive pas à définir au niveau vocal qu’est-ce qui est lié à un ordre ou a une simple discussion avec un voisin/collègue (imagine hurler à ton collègue « ferme la fenêtre » et l’application quitte tout…). Ces 2 problèmes semblent idiots et simples, mais c’est oublié un peu vite que nous (humains) pouvons faire preuve de discernement et que la machine pas.

J’avais essayé à l’époque ViaVoice en version 2, il me semble. Cela marchait plutôt bien au vu de la machine que j’avais.
Il fallait tout de même 1h30 pour faire l’apprentissage de la voix de l’utilisateur. Un peu long à mon goût.
L’autre ennuie étant que le texte ne s’affichage pas instantanément et cela est quelque peu perturbant.
Depuis, je n’ai plus essayé de tels outils. J’ai appris à taper plus vite sur le clavier ;-)
Peut-être que lorsqu’on mettra un tigre dans le moteur, les choses s’amélioreront de ce côté là.

9)
ToTheEnd
, le 25.11.2004 à 11:40
[modifier]

jp: pour moi, tu réponds à Alexis;-). Je pense qu’un jour on arrivera à ce que tu dis… toutefois, je ne suis pas sûr que ça sera de notre vivant;-)… Mais dans l’ensemble, je suis d’accords avec toi et j’irais encore plus loin en disant que c’est la seule façon de progresser dans des outils informatiques (logiciels) qui deviennent de plus en plus puissants et complexes à utiliser. Pour moi, on devrait pouvoir « dire » au logiciel ce qu’on veut et c’est lui (hard/soft) qui s’adapterait à notre demande… alors qu’aujourd’hui, on fait l’inverse, c’est nous qui devons nous adapter à la rigidité du duo soft/hard pour arriver à nos fins.

GerFaut: Microsoft ne sera jamais à la base de cette révolution… ils sont trop gros et il y a trop d’inertie chez eux pour avoir la réflexion nécessaire à sortir de leur schéma à 2 balles (n’oublions pas que Bill Gates disait en 95 qu’Internet n’avait aucun futur). Je pense que le jour où quelque chose révolutionnera tout, il s’imposera de lui-même (évidemment, si le prix et le moment sont opportuns).

T

10)
Saluki
, le 25.11.2004 à 11:56
[modifier]

Je ne crois pas que la *révolution* viendra de deux p’tits gars dans leur garage, pour ce qui est d’une nouvelle interfa(r)ce.

En fait, joueur d’échecs, j’essaie de voir plusieurs coups à l’avance et par similitude si un moyen *d’assistance à la pensée* devinait les miennes pour m’aider, ce serait parfait.

Le hic, c’est que je n’aimerais pas qu’en retour le gouvernementait aie la preuve de ce que je pense de lui !


Patientez, la recette du foie gras se prépare…

12)
nexxen
, le 25.11.2004 à 13:50
[modifier]

Ah ! Mon cher TTE, ça fait plaisir de voir quelqu’un qui ne s’extasie pas devant OS X 10.4 (entre autre) en criant à qui veut l’entendre que ça va révolutionner l’informatique. Ce genre de commentaire sur les autres sites (ici, c’est quand même plus adulte) me ferait hérisser les cheveux sur la tête s’il m’en restait encore un peu :-)

Ca ne va en effet rien révolutionner du tout. On est depuis quelques années dans une phase d’amélioration de confort, pas vraiment plus.

La véritable révolution, sans parler de telle ou telle technologie, sera celle qui offrira un changement aussi radical avec nos « vieilles » interfaces graphiques que l’avènement de la souris et des icones l’a été sur des système à la MS-DOS.

Personnellement, j’aimerais bien arriver à me passer de mon clavier (ça devrait arriver rapidement) et surtout de ne plus devoir m’assoir devant mon écran dès que je veux m’en servir.

J’aimerais avoir une façon plus rapide et plus conviviale pour accéder à mes données qu’un florilège de dossier planqués au tréfond d’une arborescence pas toujours très bien pensée (mais je ne peux m’en prendre qu’à moi :-)

Je voudrais éviter d’avoir à allumer mon Mac, d’attendre le boot, de lancer « Carnet d’adresses » et de cliquer sur un groupe donné quand je recherche le numéro d’une personne et que j’ai oublié mon agenda au bureau.

Je voudrais avoir en moins de 5 secondes l’info que j’ai en tête sans devoir taper une séquence pour afficher le formulaire de recherche, taper ce que je veux rechercher et trouver cette info parmi les 250 lignes proposées.

Ce genre de truc, pour moi, ça sera une VRAIE révolution. Quand on pourra se passer de tout ce qui nous « freine » dans notre accès à l’information, on aura fait un énorme pas en avant.

Mais une révolution en appelle systématiquement une autre : dès que cette révolution sera devenu « lieu commun », on en voudra toujours plus, toujours mieux, toujours plus vite.

Mais en attendant ce jour, je regarde toujours mon Mac d’une façon bizarre quand je viens de l’éteindre et que je me rends compte que j’ai oublié de noter le No de téléphone de la fameuse personne dont j’ai parlé plus haut parce que je me suis arrêté en route pour lire mes mails.

On ne se refait pas. :-)

PS : je cherche aussi un moyen de faire un « Find » quand je cherche un truc précis dans un bouquin et que je ne trouve rien dans cette #!$% de table des matières :-) Vivement les bouquins électroniques !

13)
nowall
, le 25.11.2004 à 14:21
[modifier]

Exemple d’interface Finder en 3D très prometteur:

http://www.marcmoini.com/f3_en.html

en beta pour l’instant. On verra dans une année ou deux quand le développeur en sera à la v 1.0 ou 2.0

il y a aussi ceux-là pour OSX:

http://www.acm.uiuc.edu/macwarriors/projects/3dosx/screenshots.html

Mais les développeurs, après les 2 premières beta, se sont essoufflés, et leur projet semble moribond.

Espérons que ces gens axé sur la GUI 3D se mettent un jour à travailler avec ceux qui maitrisent les contrôles systemes (développeurs de PathFinder par exemple) et on obtiendra enfin une interface 3D fonctionnelle. (Mieux vaut ne pas attendre sur Apple, je ne pense pas que l’interface 3D soit une priorité pour eux!)

14)
alec6
, le 25.11.2004 à 14:45
[modifier]

Nexxe :
Je crois que c’est en pensant de cette manière que les choses peuvent évoluer : en partant des besoins ou des aspirations à ceci ou celà et non en se basant sur la technologie qui permet de faire ci et ça ! En d’autres termes on fait plancher des gens qui ne connaissent rien à la technique et aux contraintes, on appelle ça le design et le marketing. Dans cette optique certains constructeurs sont allés jusqu’à faire travailler des gens qui justement n’aiment pas les voitures… (non ! on n’en parle plus, hein !).

3D et 2D :
je crois qu’il faut être clair, un écran quoiqu’il présente ser toujours en 2D et les interfaces aussi ! à partir du moment où les fenêtres s’empilent les unes sur les autres (avec ou sans ombre, avec ou sans effet perspectif) on appelle ça de la 3D ! Foutaise ! l’image est toujours en deux dimensions, un hologramme aussi. Certains artefacts nous donnent des illusions, qui n’en demeurent pas moins des illusions…
La 3D, c’est l’objet, la maquette en carton, bois, stiron… etc, oui !

Vocalisation des interfaces :
elle peut intervenir là où on ne l’attend pas, comme la reconnaissance vocale, mais reste à connaître les capacités de la machine à déterminer une voix de son immitation… En revanche, vocaliser une information peut être intéressant dans la mesure ou l’écoute est plus efficace qu’une information écrite ou codée (pictogrammes tel un panneau « sens interdit » remplaçant de longs discours et demeurant compréhensible pour plusieurs milliard de terriens…).
Quid au fait de l’utilisation par les anglophones des possibilités offertes par OS X ? idem pour InkWell ? qui l’utilise ?

à+, faut que je bosse !

Alexis, à pied et tous les défauts !

15)
Tony
, le 25.11.2004 à 15:13
[modifier]

Foutaise ! l’image est toujours en deux dimensions, un hologramme aussi.

Non, parce que cela dépend de la technologie utilisée !
Un hologramme sur papier, oui, cela reste plat.
Par contre, un hologramme créé avec des lasers a du volume, donc la troisième dimension.

16)
pilote.ka
, le 25.11.2004 à 15:48
[modifier]

Je continue à penser que la commande vocale (à part pour certains handicapés) est une mauvaise solution. Il sera toujours plus facile de tourner la roulette de sa souris que de prononcer à voix haute « scrolll en bas. Stop! Encore un peu. Stop »
Quand à la 3D c’est une interface peut-être plaisante mais elle ne changera pas significativement notre façon d’utiliser notre ordinateur. Ce sera tout au plus quelque chose de plus plaisant.

17)
Saluki
, le 25.11.2004 à 16:15
[modifier]

à+, faut que je bosse !

Tu as dit que tu dois bosser et tu lis mes bêtises


Patientez, la recette du foie gras se rédige…

18)
ToTheEnd
, le 25.11.2004 à 17:11
[modifier]

Saluki: effectivement, je ne pense pas que le salut viendra de 2 gars au fond de leur garage… Toutefois, je pense que c’est bien l’esprit (le mécanisme?) d’un cerveau humain qui permettra de changer les choses. Après, les moyens financiers qui devront être mis en oeuvre pour passer de la R&D à la production, je pense effectivement que seule une grosse boîte (voir un consortium) pourrait concrétiser un tel projet.

quark: j’ai déjà vu Matrix, c’est ok.

nexxen: héhéhéhé, content aussi de voir que j’ai pas eu trop d’intégristes qui ont commencé leur intervention par: « Tu racontes n’importe quoi, le Mac et son système son parfait et rien ne changera pour les 50 ans à venir »… J’aurais trouvé ça un peu lourd.

nowall: merci pour les links et tout… Tous ces utilitaires sont plus des API qui mappent un système existant qu’une interface révolutionnaire… Ce que je veux, c’est une refonte complète, pas juste visuel (c’est l’interaction qui doit changer).

Alexis: la 3D n’existe que parce que nous avons une vision stéréoscopique… essaie de mettre un fil dans une aiguille avec un seul oeil… et on se rappelle! Mais avant, finis de bosser pour pouvoir acheter un 4×4 parce que tes enfants se plaignent sur le forum http://www.4×4.fr qu’ils sont les seuls de la classe à pas avoir de bagnole et que c’est la honte de venir à pieds à l’école!

T (qui n’est pas encore tout à fait gauchiste… plus que 4h49)

19)
Saluki
, le 25.11.2004 à 17:48
[modifier]

…finis de bosser pour pouvoir acheter un 4×4 …
… essaie de mettre un fil dans une aiguille avec un seul oeil…

Tu le titilles…

Le problème de la stéréoscopie est encore plus grave pour les borgnes qui conduisent

-y compris les M3/B10 ;÷)


Patientez, la recette du foie gras se rédige…

20)
alec6
, le 25.11.2004 à 18:10
[modifier]

merci Saluki

Je me suis peut-être mal exprimé, mais pour un borgne ou autre, la 3D sera toujours du volume palpable !
D’accord, ma remarque est à la limite de la controverse sémantique… quand je dessine une perspective, on ne parle pas de 3D, et pourtant ! Quand je vais voir un film en « relief » je ne touche pas les actrices… (humpf !!)

Je voulais dire par là que le joujou de Sun n’apporte pas grand chose par rapport à l’ombre des fenètres du’OS X ! déformer une fenêtre pour lui donner une « impression » de reliéf avec une ou deux fuyante, ne lui confère pas une troisième dimension.
Si je prends une photo d’un objet, on ne parle pas de trois D, si je dessine cet objet sur un logiciel idoine on parlera de 3D, pourtant sa représentation sera tjs en 2D !
En revanche, la véritable 3e dimmension de nos fenêtres est donnée par… leur mouvement ie le temps, parceque je peux les faire bouger ou faire passer l’une sur l’autre.
Un tableau de Rembrand n’a que deux dimensions, une sculpture de Brancusi en a 3, une sculpture de Tinguely en possède 4 parce qu’elle bouge.

En fait il ne faut pas confondre 3D et trois dimensions.
3D est un abus de langage marketing.

Saluki ! j’attends ta recette du fois gras, étant originaire du Lot et de l’Aveyron, je t’attends au tournant… Bon, dimanche je vais essayer de trouver des coings sur le marché de la place des fêtes. (si notre conversation vous ennuie… !!)

TTE : je ne répondrai pas à de telles remarques ! Pfeeeeuuuu ! petit !

Alexis, à pied et tous les défauts !

21)
Mirou
, le 25.11.2004 à 21:36
[modifier]

Je n’ai lu les commentaires qu’en travers. Je suis un peu à plat pour tout lire, mais je voulais donner mon avis et poser une question:

Mon avis:
Je pense que nous n’aurons plus besoin d’interface écran avec les ordinateurs, qui commenceront à faire part de notre vie physique. Il comprendront nos ordres sans qu’on les dises, il s’intégreront à nos vêtements, utiliseront notre peau comme transmetteur d’information, etc. Je dis ça parce qu’on cherche toujours à s’habituer à un interface, et quand on devient un « pro » d’un logiciel (non-microsoft), on l’oublie presque, et le travail prend forme comme une plat cuisiné dans une cuisine de Poudlard. L’interface, à mon sens, ça va pas durer longtemps. Ou plutot, l’interface idéale sera celle qu’on ne verra pas, que personne n’aura besoin d’apprendre à utiliser, celle qui s’adaptera à l’humain…. Mais j’y connais rien, la preuve par ma question:

L’interface « FSN », c’est pas celle qui est utilisée par la petite fille dans Jurassic Park 1, quand à la fin, elle sauve la vie de tout le monde en fouillant dans un ordinateur ? (souvenir d’enfance)

–> faut que je sorte ?

Mirou

22)
alec6
, le 25.11.2004 à 21:47
[modifier]

Mirou !
gardium leviossa ! Spero patronum !

ça c’est de l’interface…

bon je sors aussi !

Alexis, à pied et tous les défauts !

23)
Okazou
, le 26.11.2004 à 04:38
[modifier]

Message à usage préventif : Le très virtuel sieur Okazou assure le divin ToTheEnd que ce qui suit ne peut en rien être assimilé à une attaque personnelle (on n’est jamais trop prudent) ni à une réponse ravageuse à sa contribution et qu’il s’adresse moins à lui qu’à cette partie de la société qui joue, sans toujours le savoir, le jeu des aigrefins — qui pilotent et profitent seuls de cette société de surconsommation —, ceux qui passent leur temps, langue pendante, à espérer qu’ils vont pouvoir être les premiers à profiter, contre pécule, de la dernière révolution technologique tant espérée.

•••

« Évolution vaut mieux que révolution » nouveau proverbe okazien.
« L’exigence de révolution, maladie infantile du libéralisme » pcc Lénine (CCCP)
« La revolucion por la revolucion ! » pcc Zapatta Emiliano
« La révolution permanente » pcc Trotsky Léon

Est-ce que la propension de certains à appeler sans cesse à la révolution technologique « Révolution, révolution ! » a seulement un sens ?
Ce désir (non pas besoin) impératif d’un changement radical et constamment répété ne serait-il pas révélateur d’une certaine immaturité ? « Tout nouveau, tout beau », rappelle avec dérision le proverbe. Comme disaient les Anciens : « Changement d’herbage réjouit les veaux. »

Voilà bien une déviance significative d’une partie de notre société qui correspond assurément au besoin de combler un vide parfois abyssal. « Cachez ce vide que je ne saurais voir ! ». Le vide, le néant, la mort. Ô, combien il est insupportable de se trouver face à soi (mais qui ?) avec cet appétit insatiable et forcément inassouvi de nouveauté ! Et lorsque cette nouveauté porte l’estampille « révolutionnaire », alors on atteint une façon de nirvana qui vous rapproche des dieux. On a les jouissances qu’on peut…

C’est aussi espérer combler le vide par le mouvement. On brasse de l’air comme un moulin à vent qui n’aurait pas de grain à moudre mais qui engendrerait une agitation moléculaire susceptible de se transmuer en matière quasiment compacte et presque palpable. Combler le grand vide de sa vie avec la mousse expansive de l’inanité consumériste. Vacuité, futilité, vanité.

C’est encore le moteur d’une certaine économie du gâchis. « Ah ! qu’il est bon de voir toutes ces nouveautés que je peux acheter justifiant ainsi ma présence dans le monde et confirmant mon état social de consommateur zélé. » Car acheter des nouveautés est bien tout ce qui reste de la fonction humaine. Un monde de grands enfants qui exigent l’inscription de « Noël » à chaque pag du calendrier. Produire des nouveautés et les acheter borne cet horizon restreint de la condition humaine. Une pathologie « révolutionnaire », pour le compte, que la communauté des hommes paie au prix fort.

Depuis que l’homme a inventé le couteau — une lame et de quoi la tenir — celui-ci n’a jamais été remplacé par un outil révolutionnaire. Je ne trouve pas au fond de ma poche de couteau à laser ou à eau sous pression.
Le couteau intéresse à ce point peu l’homme d’aujourd’hui qu’il faudrait en venir à sa suppression de la surface de la planète pour que l’homme en question s’aperçoive enfin que le type qui l’a inventé nous a fait là un magnifique cadeau, pour des milliers d’années. Merci homo-habilis, mon frère. Depuis, le couteau a évolué — formes, matières…— en fonction des besoins. Utilement. Une de ses évolutions est devenue la scie, elle-même déployée sous diverses formes. Mais à l’origine il y a le couteau élémentaire.

Lorsque l’interface graphique s’est manifestée à nous sur les écrans de nos ordinateurs en 1984, c’est un élément fondamental de l’informatique qui voyait le jour. Prenons-en la juste mesure. Et lorsque nous constatons les bienfaits à nous apportés par ses évolutions successives pour en arriver aujourd’hui à Mac OS X, on ne peut qu’admirer la constance de la détermination de ces innovateurs talentueux que sont les ingénieurs de Cupertino qui produisent un vrai travail et de vraies innovations vraiment utiles et confortables. Mais à l’origine, il y a l’interface graphique élémentaire.

Exiger de ces ingénieurs perfectionnistes une révolution « Balancez-moi tout ça et trouvez autre chose », manière de leur faire comprendre que leurs petites évolutions commencent à nous gonfler, est un peu choquant. Révolutionner au nom de la révolution, bouger au nom du mouvement, c’est parfaitement vain. « Par quoi pourrrais-je bien exiger que l’on remplace le fil à couper le beurre ? » L’interface graphique, c’est le fil à couper le beurre. Elle ne disparaîtra pas de sitôt, alors, aimons-la comme elle est et regardons-la sagement évoluer.

Lorsque l’on n’a plus de goût pour la saine et bonne innovation, lorsqu’un vrai progrès bien tangible nous laisse sur notre frustration, lorsque l’on en est à l’exigence d’on ne sait même pas quoi (!), alors il est grand temps de se questionner sur la différence entre la vie des films hollywoodiens et la vraie vie. Il est temps de remettre les pieds sur terre.

•••

P-S : Si c’est bien toi sous le point rouge de la photo, cher ToTheEnd, je te ferais respectueusement remarquer que tu me sembles avoir été beaucoup trop arrosé. Bizarre que drazam ne l’ait pas remarqué plus tôt, lui qui a les doigts verts. ;-)


Poser son cul sur un rocher et voir la mer autour de soi. Habiter le monde qui vous abrite.

24)
Okazou
, le 26.11.2004 à 04:45
[modifier]

Il existe, pour déplacer un curseur à l’écran par exemple, des dispositifs qui s’appuient sur le simple déplacement du regard. Tu places ton regard sur un item de menu, tu cliques… les paupières et le menu s’ouvre.

Bien sûr, ceux qui ne supportent que les souris à boutons multiples peuvent d’ores et déjà s’entraîner à remuer les oreilles.


Poser son cul sur un rocher et voir la mer autour de soi. Habiter le monde qui vous abrite.

25)
zitouna
, le 26.11.2004 à 09:56
[modifier]

Très belle envolée OKAZOU, yena du lyrisme sur les rochers entourés de la mer!
Savoir se contenter de ce qu’on a, même si ce n’est pas le « dernier cri » (étrange, non, cette expression?) serait-il devenu obscène, passéiste?
C’est vrai que gagner quelques secondes sur la rotation d’une image de 60Mo n’est pas désagréable, mais le lancement de word (worm?) en deux secondes vingt cinq ou en deux secondes trente trois, franchement! Et le temps de la réflection?

Alec6 je suis certain que tes enfants sont très fiers que leur papa ne fasse pas partie des hordes rugissantes. Bêêêêlons!!! il en restera toujours quelque chose!

ZIT G3 beige 300 MHZ (autant dire une charette à bras!)

PS: avez vous remarqué l’assourdissant silence de François CUK dans ces colonnes depuis quelques temps? n’est-il pas en train de mettre la main à un nouveau site (KUC?) entièrement dédié à la gloire du pécé et de son nouveau maître, Billou?
A moins qu’après avoir épuisé les ressources du tunning sur son powerbook (clavier rose fluo, pomme verte) – qu’il ne démare d’ailleurs plus que sur VPC7-, il cherche maintenant un système d’alimentation pour les magnifiques fluos cyan et jaune dont il a équipé son Mark II?

26)
nlex
, le 27.11.2004 à 11:46
[modifier]

« À mon avis, elle en a la matière grise et les moyens financiers! »

– oui mais peu etre pas une part de marché suffisante pour créer cette révolution qui demandera un effort financier énorme pour les entreprises qui créent des logiciels… si ça se trouve, ça viendra de microsoft…

Sinon, ça fait longtemps que je me demandais pourquoi on reste scotché à 72 dpi avec nos écrans, serait peut etre temps de passer à la haute définition, non ?

27)
nlex
, le 27.11.2004 à 14:29
[modifier]

Concernant l’évolution de l’interface je ne suis pas sur que cela change un jour, le systeme actuel est relativement efficace concernant le boulot en tout cas, et je ne vois pas ce que pourais m’apporter une interface 3D dans Quark X-press… ;)

En fait mon avis est que l’interface de l’ordinateur ne changera pas. Je pense que pendant un certain temps l’ordinateur a cherché son interface et que maintenant elle l’a trouvé, point. ça ne changera pas car maintenant l’interface à la MacOS/Windows est intimement liée au concept d’ordinateur personnel : les habitudes sont prises et le systeme actuel est plutot efficace (en tout cas plus productive qu’une interface en 3D !). Personne ne voudra changer ce couple (PC/Windows etc), trop compliqué, trop cher, trop long… L

La révolution viendra d’un autre, d’un nouvel, appareil. Certainement quelquechose de portable. Peut etre une futur évolution des téléphones mobiles. Quand on voit l’interface des mobiles je me dis que cet appareil n’a pas encore trouvé son interface : franchement, à part pour composer des numéros, utiliser un téléphone pour autre chose est totalement inadapté, et plus ça va, plus l’interface des téléphones ressemble à Windows… Bientot on va pouvoir faire une foultitude de choses avec ces appareils et l’interface va commencer à être un frein : reproduire le Finder sur un écran de 3 cm n’est pas ce qu’il y a de plus efficace, en plus il n’y a aucun standard : chaque marque à son systeme et il faut tout réapprendre a chaque fois. Peut etre qu’il y a une place pour une société (apple ?) qui lancerait un nouveau concept de GUI pour mobile et qui le vendrait, ducoup tous les téléphones aurait plus ou moins la meme interface et apple pourait etre présent dans les mobiles sans fabriquer de téléphones (non chez moi apple n’est pas dutout une obcession ;)

28)
cocobende
, le 28.11.2004 à 17:08
[modifier]

Vous pouvez trouver à cet URL une vidéo de présentation de la Sensetable de James Patten et de ses applications, notamment l’AudioPad :

Sensetable

Je n’ai pas réussi à retrouver le site original, mais on trouve quelques PDF à l’aide de Google.

29)
David Latapie
, le 13.01.2005 à 02:10
[modifier]

Pour ToTheEnd ou n’importe qui lit cet article

Niveau 1
http://nooface.com/article.pl?sid=05/01/11/0113208
Nooface, in search of the post-PC interface

Niveau 2
Ainsi que les travaux sur la communication avec l’ordinateur par la pensée (voir Internet Actu ou mon site, blog.empyree.org) ainsi que les ordinateurs vestimentaire, aussi appellés wearable computers.

</david_latapie>
blog.empyree.org/

30)
ToTheEnd
, le 13.01.2005 à 02:43
[modifier]

Merci David, j’ai jeté un oeil… pour le site de « nooface », c’est un peu le comble d’avoir un site presque illisible alors qu’il parle de nouvelle interface… (sans être méchant, le bleu foncé sur le noir, ça craint). Mais c’est cool quand même (néanmoins, je pense qu’on est encore super loin d’un pilotage « cérébral » de nos machines).

T