Une année de TIC: ce qui ne sera plus jamais comme avant

Le monde des TIC ne fait pas qu’avancer, il accélère. Chaque bilan annuel fait table rase des certitudes accumulées l’année d’avant. Ainsi, 2012 aura été l’année des grandes prises de décision en matière de systèmes d’exploitation. Elle aura aussi été l’année de l’explosion des solutions Cloud, de l’hégémonie de la tablette,  de grands pas franchis par la technologie LTE, ou par les smartphones qui adoptent des hardwares auxquels nos PC maison ne pouvaient même pas prétendre il y a quelques années.

 

 

L’industrie du jeu vidéo a subit de lourds changements, marqués par la dématérialisation galopante, ou l’atrophie du marché des jeux en boites. Hardware, software, Cloud, et jeu vidéo ; voici qui ne sera plus jamais comme avant.



Hardware : de l’ultra mobilité et du consumérisme



En janvier 2012, notre dossier N’TIC titrait « En attendant la 3G, les algériens s’équipent »… Un titre que l’on pourrait reprendre tel quel 12 mois plus tard. Toutefois, l’équipement en question tend à évoluer. Un smartphone ayant un petit processeur cadencé à 800 MHz, couplé à un petit processeur graphique, disons un Adreno 200, avec une petite RAM, autour des 384 Mo, et un petit écran 3.2 pouces avec une petite résolution 240 x 320 tourne tout de même sous Android 2.3.6 Gingerbread! Cet équipement, auquel il faut évidemment rajouter le WiFi, le GPS, le Bluetooth, et l’extension de mémoire via microSD est disponible pour un « petit » prix de 13 000 DA.

Certains auront déjà reconnu la description du LG Optimus L3, l’Android d’entrée de gamme aux applications certes limitées mais bien utiles. L’accessibilité de l’expérience Smartphone est donc boostée par les baisses de prix.


Les habitudes acquises sur ce genre de terminaux conditionnent pour beaucoup notre façon de consommer les TIC à l’avenir. Elle finira bien par arriver, la 3G (premier trimestre 2013 selon le calendrier Maya !), et un terminal permettant la navigation internet, accessible au prix du téléphone multimédia de 2011 est un facteur de réussite non négligeable pour la démocratisation de l’internet mobile.

Le smartphone prend du galon

L’évolution du hardware ne se limite pas à l’accessibilité des solutions, mais s’étend aussi et surtout à la mise à jour des standards qui définissent les terminaux haut de gamme. Le «haut de gamme » d’aujourd’hui n’est après tout que le moyen de gamme de demain. Demain, l’assistant électronique vocal sera donc accessible à tous. Siri pour Apple mais surtout Google Plus, excellent en tous points, et comble de la joie, embarqué d’office sur des tablettes facturées moins de 150 euros par Ainol, ou 200 euros par Asus (oui, la Nexus 7).

Certes, ceci est une amélioration qui semble plutôt se caser dans la catégorie « software», mais c’est bel et bien l’accessibilité de tablettes assez puissantes pour faire tourner ce logiciel qui le rend viable : notre Optimus L3 ne peut par exemple pas prétendre accueillir Google Now ou Android 4.2…c’est aussi pour cela qu’il est abordable.

Le smartphone prend donc du galon, les appareils photo 8 mégapixels deviennent standards en 2012, et leurs successeurs en 2013 promettent de faire mieux. Nokia tire tout de même la couverture de son côté avec ni plus ni moins que le meilleur capteur optique équipé sur ses Lumia sous Windows Phone 8, le 820 et le 920. La stabilisation optique y est pour beaucoup, la stabilité de l’image et les performances de l’outil dans les basses lumières rendent enfin dispensables les appareils photo compacts.

Le but en 2013 est d’aller encore plus loin en proposant une solution crédible pour immortaliser les moments importants, mais aussi pour fabriquer des illustrations pour professionnels de l’image, avec en plus la possibilité d’éditer, photoshoper, monter, partager, illustrer et mettre en ligne, pourquoi pas, des créations artistiques.

Ceci n’est qu’un exemple de ce que permet le consumérisme. Le consumérisme, c’est l’utilisation du terminal à la fois dans un but ludique, généraliste, et dans un contexte professionnel. C’est ainsi que les tablettes embarquent de plus en plus de caractéristiques de PC, tout ce qu’il y a de plus standard. On notera par exemple l’ajout de la Suite Office 2013 dans Windows RT, version pourtant « légère » de Windows 8, enfermée dans les applications du Windows Store. Cela mène aussi à aborder les différences fondamentales entre les futures tablettes.

Tablette ou PC tablette…une question de processeur

 Il ne serait pas étonnant qu’Apple sorte un hybride entre Mac et iPad…MacPad, ou un concept dans ce sens, tant les efforts que fait la firme à la pomme pour faire converger ses écosystèmes sont évidents. Pour cause, la disparition pressentie du format « tablette » comme étant une famille de produits différents des PC.

Quand une tablette est équipée d’un processeur Intel i5, quand elle fait tourner un système d’exploitation digne du PC bureau, et quand on peut lui installer tous les logiciels de la création…c’est un PC. Ces changements amorcés fin 2012 n’en sont qu’à leurs balbutiements, mais ils présagent d’un avenir proche où aucune distinction ne devient possible entre un laptop et une tablette…voici l’une des évolutions hardware les plus fondamentales pour le marché de l’ordinateur personnel en 2013.

Dans le même temps, on s’est mis à installer des processeurs sur tout ce qui peut en accueillir, la télévision par exemple. Les Smart TV, au début gadgets futiles, sont devenues bien plus attrayantes depuis qu’on a trouvé un moyen de les intégrer dans une utilisation quotidienne ergonomique.

Avec un smartphone, il est possible de contrôler sa télé, de naviguer sur Internet ou de jouer à des applications mobiles sur grand écran. Il est en effet possible d’afficher tout contenu mobile sur une Smart TV, sans câbles.

Même prise individuellement, la Smart TV gagne en arguments quand elle permet d’utiliser Skype sans avoir à sortir le PC, ou de naviguer sur YouTube…Le hardware ne se pense plus seul, mais intégré dans un écosystème d’objets connectés à Internet. Ces technologies ne datent pas de 2012 certes, mais jamais autant de choix de télés connectées n’a été offert au consommateur, et plus que tout, jamais l’intérêt même de connecter sa télé à Internet n’a semblé aussi évident.  

Tout ce hardware qui gagne en mobilité, en puissance, et en légèreté, à base d’avancées dans le domaine de la consommation d’énergie, de l’autonomie des batteries, de solutions de refroidissement, et de processeurs optimisés ne sert qu’un but : faire tourner du logiciel.


Software : OS mobile…OS tout court



Le chantier des systèmes d’exploitation opéré en 2012 a été titanesque…et il est loin d’être terminé. En 2011, nous pouvions facilement identifier les versions d’OS purement conçues pour le format smartphone, celles qui ont été construites avec la taille d’une tablette en tête, et les OS dit «classiques » qui font tourner les PC conventionnels. Cette belle séparation des environnements numériques a pris un coup dans les dents avec Android 4.0 Ice Cream Sandwich qui a fédéré les smartphones et les tablettes sous le même environnement.


Conséquence, une meilleure complémentarité entre les mobiles devices, mais surtout une plus grande facilité pour les développeurs pour concevoir les applications et les mettre à disposition de l’utilisateur. Dans un tout autre registre, Google a aussi mis au point un système d’exploitation orienté ultrabooks et basé sur son navigateur internet : Chrome OS. Un système léger, mis à jour automatiquement et optimisé pour les Chromebooks qu’il équipe. Google semble alors faire le distinguo entre ultrabooks d’un côté, et smartphones/tablettes de l’autre. Apple fait une segmentation tout aussi marquée entre son OS X pour Mac et son iOS pour engins mobiles...mais les choses sont plus subtiles que cela.

Pas de fusion d’OS X et d’iOS...officiellement

Apple compte bien garder une frontière nette entre OS X (le système d’exploitation du Mac) et iOS (celui de l’iPhone et de l’iPad), mais force est de constater que depuis le départ de Scott Forstall (monsieur iOS), OS X ressemble dangereusement à iOS. Rien d’étonnant, quand on pense que c’est à Craig Federighi (monsieur Mac OS depuis son retour en 2009) qu’est revenue la division de Forstall. Ainsi, OS X Mountain Lion intègre un centre de notification, des gestures, la dictée, un Store et une gestion des messages à en faire jurer qu’il s’agit d’iOS. Il est fort à parier qu’Apple ne veut pas précipiter la fusion définitive de ses OS tant qu’un hardware fédérateur n’a pas encore été annoncé.   

Un hardware fédérateur, Microsoft appelle cela « Surface Pro »…et ça envoie du lourd ! Finie la séparation entre les OS tablettes et les OS PC. Chez Microsoft, seuls les smartphones ont droit à leur propre système d’exploitation, taille de l’écran oblige. Bien sûr, Windows RT est à distinguer de Windows 8 (comme détaillé au numéro précédent), mais les choix fondamentaux faits par Microsoft lui ont permis de se hisser au devant de la scène de l’innovation, lui qui accusait du retard sur les OS mobiles.


Ces mutations de l’industrie impliquent aussi des changements sur notre façon de consommer le logiciel. Le support physique est promis à une mort certaine (Apple ne s’embarrasse même plus d’équiper ses Mac de lecteur DVD !). La dématérialisation et les stores en lignes commencent petit à petit à devenir le seul moyen de mettre le grappin sur du software. Cela doit nous faire questionner notre aptitude à instaurer un système de paiement en ligne dans les plus brefs délais. Les mouvements récents de notre ministère des PTIC laisseraient présager que le paiement via mobile serait pour début 2013, un pas dans le bon sens. Quant à savoir si cela permettra effectivement le commerce de logiciels en ligne, la perspective semble déjà plus éloignée.


Ce qui ne sera plus jamais comme avant en matière de soft pose de lourdes problématiques quant à l’intégration des objets mobiles dans le monde de l’entreprise, ou quant à notre vélocité à adopter une façon de fonctionner plus compétitive, plus optimisée, en tirant parti de ces technologies aux domaines d’applications transversaux. L’autre boom en 2012 en lien direct avec la rentabilité des entreprises concerne évidemment le Cloud Computing.


Cloud : de l’IaaS au SaaS


Commençons par expliquer les diminutifs. IaaS veut dire « Infrastructure as a Service » (infrastructure en tant que service) et Saas veut dire « Software as a Service » (logiciel en tant que service). Le Cloud Computing nous aura suivis des mois durant, tant l’actualité fin 2012 a été marquée par les solutions Cloud. Tout ou presque a été dit sur ce sujet, et parmi les évolutions notables dans ce domaine, nous trouvons le SaaS.

Aucune maintenance, aucun budget de « système de secours » ne sont requis quand on passe au SaaS, l’ensemble de la solution existe dans le Cloud.

L’entreprise, au-delà du logiciel, de la plateforme, ou de l’infrastructure, utilisera un service entièrement dématérialisé. On ne paye que ce que l’on utilise et on profite d’une maintenance et d’une fiabilité optimales et autrement couteuses.

Pour IBM, le Cloud Computing est « un nouveau modèle qui constitue une réelle source d’agilité, d’efficacité économique et d’opportunités business. Le Cloud Computing permet de réaliser des économies significatives sans sacrifier la qualité de service, bien au contraire. Les gains les plus importants sont obtenus au niveau de l’optimisation des ressources et de la valorisation des missions informatiques en faveur des métiers ».
 
Seulement voilà, seule « une entreprise sur dix dans le monde possède les compétences nécessaires pour appliquer efficacement les technologies évoluées, comme les business analytics (analyse des données), le mobile computing, le cloud computing et le social business (outils sociaux pour l’entreprise). De plus, près de la moitié des enseignants et des étudiants interrogés estiment que leur établissement d’enseignement souffre de lacunes importantes en compétences technologiques avancées », selon le rapport 2012 d’IBM sur les tendances technologiques.

Ce déficit de maîtrise et de connaissances est un réel challenge pour les entreprises en 2013, car, oui, leur compétitivité reposera en partie sur leur adoption de ces nouveaux outils, indépendamment de leur domaine d’activité.

Le secteur le plus pertinent pour permettre de prendre le train en marche est évidemment le secteur universitaire. IBM a d’ailleurs déjà réalisé une série d’ateliers, les « IBM Academic Initiative », au niveau des universités de Tlemcen, d’Oran, de Chlef, de Mascara, de Saida, ainsi que de Sidi Bel Abbes. Une démarche originale qui pose les bonnes questions et opte pour les bonnes stratégies pour faire de l’entreprise algérienne une machine performante.

Encore quelque chose qui ne sera (peut-être), jamais comme avant. Il est temps d’aborder notre quatrième chapitre que 2012 n’aura pas laissé indemne…le loisir vidéo ludique.


Jeux vidéo : la casualisation décomplexée



Le Cloud n’aura pas non plus épargné la sphère vidéo-ludique. Bien sûr, jouer à un titre sorti sur consoles HD, sans avoir ladite console, juste avec une manette, un modem et une télé…ça ne peut s’envisager que dans des pays où la bande passante est suffisante pour permettre la prouesse. Ajoutons à cela la possibilité de payer en ligne non pas l’achat du logiciel, mais son utilisation sur le Cloud, un exemple de SaaS, et on a quasiment fait le tour des raisons qui font que nous ne sommes pas prêts de jouer sur le Cloud pour encore un bon bout de temps.

Indépendamment de ces nouvelles façons d’accéder au logiciel, 2012 aura marqué l’adoption par une grande majorité de jeux, des mécaniques typiques des jeux « occasionnels ».

C’est le phénomène de casualisation qui balafre littéralement des sagas entières. Passe encore la pullulation des titres purement « casual », si elle permet de mettre en lumière les œuvres vidéo-ludiques, des perles de création, de conception, mariage de technologie et de génie artistique. Le véritable danger est la transposition des mécaniques de jeux occasionnels sur des softs qui ne devraient pas l’être.

La « vie illimitée » est un bon exemple de casualisation. Dans les jeux pour joueurs néophytes, le gameover est une situation exceptionnelle, repoussé à coup de personnages invulnérables, de vies infinies ou de munitions illimitées. Idem en ce qui concerne le « level design », réduit à des couloirs dans bon nombre de jeux occasionnels, pour ne pas solliciter le cerveau outre-mesure, ou perdre le joueur dans un labyrinthe dessiné par un esprit alambiqué. Voilà que les gameplays se singent, que les jeux se confondraient presque si l’écran titre n’affiche pas le nom du soft.

Voilà que le dématérialisé s’en mêle, que le piratage devient exploit, que la connexion internet devient indispensable pour accéder à un contenu pourtant présent sur le disque. Que dire des jeux, édités et réédités trois mois plus tard en version «ultimate » ou « extrême », comptant deux ou trois personnages en «plus» que la première édition aurait très bien pu contenir ? Que dire des contenus téléchargeables et des mises à jour hebdomadaires pour accéder à un contenu sorti la même semaine que le jeu de base…uniquement par téléchargement ?  
   
La Wii U débarque, mi-fraîche (nouveau gameplay), mi-réchauffée (anciens titres), et au crépuscule de la 7ème génération de consoles, on ne peut qu’espérer que la casualisation, embauchant des joueurs nouveaux, finira par faire naître des demandes dignes du loisir vidéo-ludique.

Il faut alors croire que le jeu vidéo, tout comme le monde des TIC, ne fait pas qu’avancer…il accélère.