Je ne comprends pas (...) que l'on puisse un seul instant alors que le futur n'existe pas encore le comparer au présent (ou au passé récent).
En clair, la "Technologie" évolue de façon irrémédiable (et exponentielle) au point qu'il est difficile d'entrevoir le futur et même la lenteur (économique) de sa mise en œuvre ne permet pas assez de pause pour le cerner au point d'être catégorique sur sa non suprématie !
J'ai un point de vue très différent sur la question.
D'une manière générale, hormis dans le cas de découvertes scientifiques fondamentales qui entraînent une
véritable révolution technologique, les concepts fonctionnels et la faisabilité technique se préparent en fait avec beaucoup d'avance sur la réalisation commerciale. Quand un nouvel système sort sur le marché, il est bien souvent présent à 99% des années plus tôt dans l'esprit des ingénieurs et dans les tiroirs des industriels.
Tous les ingrédients des « révolutions » que le marketing des sociétés commerciales nous présente aujourd'hui existaient généralement depuis plusieurs décennies, et n'attendaient plus que la concomitance d'un besoin (réel ou induit), de la réceptivité du public, de la rentabilité financière de l'opération (développement + production + diffusion) et de la volonté d'entreprendre cette dernière. Il s'en faut parfois d'un détail (la réduction d'un coût de production ou l'avènement d'une mode par exemple) pour déclencher la naissance officielle d'une « innovation », dont la paternité souvent très discutable ne tient qu'à des dépôts de brevets opportunistes.
Les écrans tactiles multitouch d'Apple en sont un bon exemple. Alors que la firme les présente comme son invention, son principe et ses constituants existaient déjà dans nos laboratoires et bureaux d'étude, ici en France, plusieurs années avant qu'on commence à en parler officiellement. Aujourd'hui, faisant face à la contestation des concurrents, c'est à coup de procès et d'accords coûteux qu'elle tente d'écrit l'histoire de la genèse de ses produits. Mais c'est finalement beaucoup plus une légende que de l'Histoire
(d'ailleurs, j'ai lu qu'elle a encore dû payer 5 millions de dollars à cause de brevets taïwanais antérieurs aux siens).
Je peux également citer le système
Siri, parfois présenté comme une révolution technologique actuelle. Or, cette idée est bien loin d'être nouvelle, puisqu'elle était déjà présentée il y a près d'un quart de siècle...
par Apple. Et ceux qui ont encore la mémoire de cette époque se rappelleront qu'elle était parfaitement « dans l'air du temps » (l'IA, la reconnaissance et la synthèse vocales produisaient alors des réalisations intéressantes), et qu'on y avait déjà auparavant souvent fait référence dans les films et ouvrages de science fiction (voir HAL dans «
2001, l'Odyssée de l'espace », sorti en 1968).
Si j'osais une image, le monde scientifique et technique a durant des années bâti une ville, et Apple est venu poser le papier peint, le carrelage et un paillasson de bienvenue sur le perron d'une des maisons. Ce que fait Apple est néanmoins ardu et louable, mais la réelle innovation dont elle fait preuve ne se situe pas dans le secteur que le marketing veut bien nous faire croire. Et ce qui est valable pour Apple l'est tout autant pour l'immense majorité des autres sociétés commerciales dites « innovantes ».
Bref, même si on ne peut pas prédire l'avenir (c'est-à-dire ce qui se fera
effectivement), on peut en revanche dès aujourd'hui se faire une bonne idée des possibilités techniques et des voies envisagées qui déboucheront ou pas (il s'agit de
possibilité) sur les produits commerciaux des prochaines décennies.
Pour les claviers lisses, tous les ingrédients sont déjà là. L'essentiel des difficultés ne sont plus que d'ordre ergonomique et commercial. Et de mon point de vue, dans le cas particulier (je précise bien) des usages aujourd'hui dévolus aux claviers mécaniques, la question de l'ergonomie est rédhibitoire pour ces dispositifs.
---------- Nouveau message ajouté à 16h30 ---------- Le message précédent a été envoyé à 15h57 ----------
Si vos doigts sont posés à la surface, comme sur un clavier mécanique, alors le clavier s’affiche sous vos doigts... Ce clavier qui s’affiche sous vos doigts place automatiquement les touches repères en dessous des doigts correspondant, et déforme le reste du clavier par anamorphose.
Par exemple, si vous posez les quatre doigts de la main droite (sauf le pouce) en ligne (forcément) sur la partie droite du claviécran, alors le clavier s’affiche, éventuellement déformé, pour afficher les touches "JKLM" sous les doigts correspondants.
Ainsi vous pouvez commencer à saisir du texte, sachant qu’un doigt posé sur la vitre devra être relevé puis reposé brièvement pour saisir une lettre. Ainsi vous pouvez saisir du texte sans même avoir à vérifier si vous avez bien positionné vos doigts sur le claviécran avant de commencer : vous positionnez approximativement une rangée de doigt sur la vitre et l’interface comprend que vous allez saisir du texte.
(...)
Je ne reviendrai pas sur la question du feedback à l'enfoncement de la touche que j'ai évoquée plus haut, ni sur la question du positionnement initial des doigts pour laquelle tu décris ici une solution réalisable.
Néanmoins, si l'on ne veut pas que l'utilisateur doive rester l'œil rivé sur le clavier durant la frappe, le système suggère que les mouvements des doigts soient suffisamment reproductibles dans le temps pour déterminer sans erreur les touches qu'on souhaite atteindre.
Or, on sait qu'en l'absence d'un retour (feedback) suffisant pour permettre à l'utilisateur de réajuster dynamiquement la position, l'amplitude et la direction de ces mouvements, ainsi que leur précision, sont amenés à varier à cause de nombreux facteurs, parmi lesquels la posture (on peut être plus ou moins redressé sur son siège, plus ou moins en face du clavier, plus ou moins loin de la table...), l'état de fatigue, la santé (douleurs articulaires...), l'humeur... et même parfois le menu du dernier repas.
Par exemple, à la fin d'une journée harassante, en voulant taper un « @ » on pourrait en arriver à taper entre le « @ » et le « & », voire nettement plus sur le « & » que sur le « @ »...
Comment faire face à ce type de problème ?