Archive for Opinion

Les comparatifs étranges de 01.Net

Le site 01.net propose un très étrange classement de téléphones portables à plus de 450€. Ce classement aux critères très étonnants a fait réagir Benoit Pepermans qui se fend d’un long billet de blog fort intéressant. Outre le fait qu’on trouve un BlackBerry Passeport devant l’iPhone 6 (srsly, guys ?), l’article met en avant le fléau des sites technologiques qui ne mettent en avant que des critères dits « objectifs »… mais qui ne le sont pas tant que ça. Pire encore, qu’un site comme 01.net mette en avant des critères comme le nombre de pixels d’un capteur photo pour décider de sa qualité réduit en cendres sa crédibilité.

Mais surtout, il montre le décalage de plus en plus flagrant entre les sites qui veulent comparer des données dans un tableau, en oubliant totalement le côté émotionnel de ces appareils que nous portons en permanence avec nous, ou que nous utilisons tous les jours.

Les caractéristiques techniques d’un appareil électronique ne sont pas négligeables, bien sûr. Mais seule la prise en main réelle, l’utilisation sur le terrain, la possibilité de le toucher permettent d’en appréhender toutes les subtilités, que ce soit pour Apple ou pour d’autres constructeurs… Mais il faut être honnête, sur ce terrain, Apple part avec une avance phénoménale, car elle place le design au cœur de ses produits. Elle appelle à l’émotion. Je me souviens par exemple très bien du peu d’engouement pour le MacBook Air original, en 2008. Et puis, on le sortait de son carton, et… wouah. Ça ne ressemblait à rien de connu.

Et ça, toutes les caractéristiques techniques du monde ne peuvent pas forcément le contrer. C’est pour cela qu’il est la plupart du temps indispensable de voir l’appareil de vos rêves in situ. C’est comme pour l’automobile : vous ne choisissez pas forcément une voiture uniquement parce qu’elle fait du 4 litres au cent (même si ça peut être un critère, évidemment) : son aspect, son élégance vont aussi devoir vous parler. L’informatique atteint aujourd’hui le même statut que l’automobile : ce n’est plus un objet forcément moche, mais ce doit aussi être un objet avec lequel nous souhaitons avoir une relation plus… intime[1]. 

C’est aussi pour cela qu’il sera indispensable de tester l’ Watch lorsqu’elle sera disponible, sans forcément regarder ses caractéristiques techniques, car plus encore, la montre parlera à votre émotion. Et peut-être que vous accepterez de sacrifier des éléments qui pourraient sembler importants[2]… parce qu’elle vous aura touché dans quelque chose de plus subtil qu’un tableau de caractéristiques techniques.

  1. Ne rigolez pas, au fond.
  2. <tousse tousse> L’autonomie <tousse tousse>

WWDC 2014 : le bilan de la conférence inaugurale

(Oui, je ne dis pas « keynote », ça m’énerve toujours autant. Bref.)

C’était vraiment une belle Keynote ce soir1.

Durant deux heures, Apple a présenté son futur. Et c’est un futur qui me plait bien plus que celui de l’époque de Lion, entre autres. Mais surtout, elle montre ce que je m’entête à dire depuis des années : Apple n’est pas aujourd’hui pour faire des grands chambardements. Si vous attendez une révolution tous les matins, vous serez déçus.

Son travail est itératif. C’est un travail de longue haleine : si vous trouvez qu’il n’y a aucune différence entre l’interface Aqua2 de 2001 et celle de 2014, alors vous avez un vrai problème avec Apple. Et c’est peut-être l’intelligence d’Apple : plutôt que de vouloir tout radicalement changer, plutôt apporter de petites modifications, pour perfectionner son travail de longue haleine, plutôt que de tenter d’imposer par la force des changements radicaux et réellement sujets à controverse3.

L’un des maitres-mots de cette keynote aura surtout été la fluidité. Fluidité de transfert des informations d’un appareil à un autre. Il y a aujourd’hui encore trop de frictions à l’usage entre un appareil sous iOS et un Mac. On a déjà parlé longuement des limitations d’iCloud, par exemple sur 3 Hommes et un podcast. Il semble qu’Apple ait décidé d’écouter ses utilisateurs pour proposer une expérience plus simple, plus proche de ce qu’on souhaiterait vraiment. Le cas frappant, c’est iCloud Disk : on râlait qu’Apple ne proposait pas de stockage facile d’accès en limitant la partie cloud à l’intégration aux apps ? Hop, voici du partage à la Dropbox. Je râlais qu’on ne puisse pas prendre un appel téléphonique depuis son Mac lorsqu’il arrive sur l’iPhone ? C’est possible, et pas de souci pour envoyer iMessage ou SMS depuis le Mac. Vous voulez créer un hotspot entre votre Mac et votre iPhone ? Hop, un clic, c’est fait. On râlait qu’il fut impossible d’utiliser d’Airdrop entre OS X et iOS ? Voilà, corrigé.

Apps finder access

Plus impressionnant encore, la fonction Handoff, qui permet de reprendre un document sur son iPad ou iPhone exactement où on s’est arrêté sur son Mac. Reste à voir si dans l’usage on aura la même fluidité que durant la conférence4… Mais à priori, tout semble conçu pour que l’iPad, l’iPhone et le Mac5 travaillent réellement main dans la main… iCloud devenant le liant pour tous nos appareils numériques. Apple a compris depuis longtemps que ses appareils ne pouvaient pas fusionner de force, et ça tombe bien, ça n’est pas son objectif. Plutôt que de faire des solutions « sans compromis », comme le dit si mal Microsoft6, autant faire des solutions adaptées à chaque usage, mais réellement liés les uns aux autres.

Mais Apple est aussi parfois capable de faire quelques choix pour le moins radicaux, comme Metal7,une nouvelle couche de programmation pour tirer parti de la puissance graphique des processeurs A7 et dont la démonstration, je l’avoue, m’a pas mal impressionné. Ou encore… un nouveau langage de programmation. Curieusement, j’ai entendu qu’avec Swift, Apple voulait assassiner les développeurs. Diantre ! Parce que proposer un langage plus simple, plus rapide qu’un langage créé il y a plus de 25 ans, et tirant le meilleur parti de nos processeurs serait les assassiner ? Les développeurs auront certes du travail, mais si le langage est plus efficace, plus beau (mais oui !), ils passeront à Swift, tout comme les développeurs sur Windows ont embrassé C#. En tout cas, Apple leur a donné au moins un beau sujet de discussion pour les années à venir… Et il semble que les premiers retours sur Swift soient assez encourageants.

Restent les changements cosmétiques, qui comme d’habitude vont sûrement faire râler pas mal, puis on s’y fera, comme pour tout. On a survécu à l’interface Platinium et au passage à Aqua…

Bref… Si vous attendiez de voir ce que pouvait donner l’Apple post-Steve Jobs, vous en avez enfin un bon aperçu.

C’est… Apple.

  1. Et merde.
  2. Peut-on encore d’ailleurs encore parler d’Aqua vu l’absence quasi-totale de cette interface liquide ?
  3. Coucou Windows 8, oui oui, c’est de toi qu’on cause
  4. N’oublions pas que chez Apple, la bande passante semble toujours infinie durant les démos.
  5. Et dans une moindre mesure, Windows puisqu’iCloud Drive sera également disponible dessus.
  6. Quand MS dit qu’il n’y a pas de compromis dans Surface, elle démontre systématiquement le contraire
  7. Dont le logo me fait furieusement penser au M sur la casquette de Mario…

La VOD nous fait aimer le piratage

Un article bien acide du toujours excellent Pierre Dandumont, qui narre les navrantes protections utilisées pour le téléchargement *légal* du film Veronica Mars.

Le problème, c’est que les systèmes de VOD sont de plus en plus insupportables, et que ça ne s’arrange vraiment pas. Souvenez-vous de mes déboires avec Inception… Alors quand les utilisateurs avancés comme Pierre ou moi pètent un plomb, imaginez ce que ça doit être pour le grand public…

 

 

 

Nintendo à la croisée des chemins

Ces derniers mois, j’ai lu beaucoup d’articles sur la mort de plus en plus proche de Nintendo (entre autres chez Gruber, Arment qui s’y est encore remis et Siracusa) suite au lancement de sa nouvelle console, la Nintendo 2DS. Il y a également eu un premier article de MacG sur le sujet, qui a remis le couvert dimanche dernier avec un article très intéressant. Point commun : ce ne sont pas des blogueurs de jeux vidéo, mais des blogueurs ou site orientés Apple à la base, et qui traitent donc de Nintendo car le monde du jeu vidéo a fortement basculé vers les smartphones (cela dit Siracusa est aussi un grand fan de Nintendo), et donc iOS. Notez que ce n’est pas une critique en soi, mais juste un constat : ces analyses viennent de gens que je suis essentiellement pour leurs connaissances de l’environnement Apple, moins pour leurs connaissances du monde du jeu vidéo. Ce qui ne veut pas pour autant dire que leurs analyses sont fausses pour autant.

Il se dégage donc de ces articles un consensus : comme Nintendo va moins bien aujourd’hui qu’il y a six ans, il va FORCÉMENT falloir qu’il s’adapte au marché. Et ça veut donc dire que Nintendo DOIT basculer ses jeux sur smartphones.

En tant que gamer et Nintendo-fan, je me dois un peu de réagir enfin à tout ça1 Vous pourrez objecter qu’il y a forcément un peu d’affect justement dans mon article, mais je pense être assez réaliste sur la situation de Big N pour ne pas me mettre d’œillères.

Tout d’abord, il va falloir distinguer un peu deux cas différents, car tout le monde tape sur Nintendo en mélangeant deux marchés pourtant bien distincts.

Le cas 2DS/3DS

La Nintendo 2DS était effectivement un étrange tir de la part de Nintendo. Une console qui ne fait plus de 3D, mais qui joue les jeux 3DS. Une console plus encombrante que la 3DS, puisque non-pliable. Mais également une console sûrement plus solide 2, moins chère que la 3DS, et en général, moins chère que la plupart des smartphones. Le premier modèle d’iPod Touch est à 249€, soit plus de deux fois le prix de la Nintendo 2DS. Avec certes des caractéristiques éminemment inférieures pour la 2DS… mais est-ce que c’est vraiment important ?

N2DS

Par ailleurs, l’iPod touch, certes plus puissant que la 2DS ou 3DS, ne dispose pas des mêmes capacités de contrôle. Et si le contrôle tactile ou le gyroscope sont amusants, ils ne sont clairement pas adaptés à des jeux demandant un contrôle particulièrement précis (exemple-type : Super Mario). Là, on préfèrera à 100% avoir un vrai stick, voire deux. Déjà que ça râle que la 3DS n’ait qu’un seul stick analogique… Et non, les contrôles des smartphones ne sont pas toujours satisfaisants. Ils sont parfaitement adaptés pour certains styles de jeu (ex : jeux de rythme, comme l’excellentissime Groove Coaster), mais pas à d’autres. Pour la plate-forme, ça ne marche que si on a un personnage qui court sans arrêt dans une direction et qu’on doit faire sauter ou glisser. Mais dès qu’il s’agit d’aller à droite et à gauche, écran capacitif ou pas, ça devient la plaie.

Un argument de la 2DS est qu’il s’agit d’une console… sans 3D. C’est à la fois un bien et un mal : d’un côté, ça veut dire que les gamins peuvent se passer la console sans se poser la question d’activer ou pas la 3D, et ça permet aux plus jeunes de profiter des jeux 3.

En fait, le seul vrai défaut de la 2DS est que Nintendo aurait du être plus agressive tarifairement, en la plaçant sous la fameuse barre psychologique des 100$/€. Là, on aurait une différence bien plus marquée en terme tarifaire avec la 3DS. Les quelques 40$ d’écart me semblent insuffisants.

Maintenant, il faut remettre les choses un peu en perspective. Certes, la 3DS se vend moins que la DS sur la même durée, mais c’est dans le cadre d’un domaine hyper-concurrentiel imposé par les smartphones. Nintendo souffre, mais 36 millions de consoles alors que dans le même temps il s’est vendu plusieurs centaines de millions de smartphones… c’est plutôt pas mal ! Cela signifie qu’il y a toujours un marché pour des appareils de jeux dédiés. Et j’ai tendance à dire que oui, pour plein de raisons :

- Quand je joue, je n’aime pas être interrompu. Je sais que je vais me concentrer sur un jeu pendant un certain temps, et que si le téléphone sonne, je peux juste l’ignorer sans subir sa pression en plein milieu d’un combat. Oui, il y a le mode avion, mais il y a des moments où on veut QUAND même être joignable. Et oui, y’a le mode Ne pas déranger, mais vous allez me lâcher la grappe enfin ? C’est moins pratique, c’est tout, j’ai dit.

- Il est difficile de trouver des jeux dont la durée de vie soit aussi importante que celle des jeux console. Attention, je n’ai pas dit que ça n’existe pas. Mais que c’est plus dur à trouver. Et personnellement, j’ai du mal (est-ce encore lié au point précédent ?) à m’investir autant sur les jeux pour portables. J’ai pourtant acheté des Final Fantasy sur iOS, mais rien à faire, je ne retrouve pas le même plaisir de jeu que sur console, et encore une fois, parce que j’ai du mal à me faire au « tout tactile » sur ce type de jeu.

Je ne penserai donc pas que la 2DS est un coup d’épée dans l’eau, ou une tentative désespérée. Ça me semble au contraire être un coup bien réfléchi, visant  à élargir la base d’utilisateurs par le bas, la 3DS XL étant celle d’élargissement par le haut. Mais malgré cela, peut-il réussir ? Oui, si Nintendo baisse rapidement son prix, et si l’afflux de bons jeux continue (plus à ce sujet plus bas).

Le cas Wii U

Ah, la Wii U… « Quel étrange cri », aurait pu écrire Marguerite Yourcenar. La Wii U était une tentative risquée de la part de Nintendo, née d’une idée fixe de Miyamoto, à savoir le « gameplay asymétrique ». En clair : dissocier ce qui se passe de l’écran principal pour reléguer une partie de l’action sur un écran séparé. Et quand je parle d’idée fixe, c’est un concept qu’on a déjà vu par exemple avec la GameCube (cf le fameux Pacman de triste mémoire ou encore Zelda Four Swords).

Le problème est que… ça marche en fait moyennement en pratique. Certes, ça permet de faire quelques petits trucs intéressants, mais rien qui ne soit pas faisable avec une console plus « classique ». Ou en tout cas, rien qui pousse le consommateur de dire « oh là là, il m’en FAUT une ». Alors que la Wii a été un carton planétaire en raison de sa simplicité d’accès 4, ici Nintendo a, je pense, rendu les choses trop compliquées. Gérer deux écrans n’est pas aussi simple que d’en gérer un seul, devoir faire des gestes sur un écran géant alors que l’action se déroule sur l’écran principal n’a rien de vraiment facile.

Mais le gameplay asymétrique fait du coup rêver du côté des tablettes. D’ailleurs, lors du lancement de la Wii U, beaucoup ont pensé que le Wii U Controler était la console elle-même. Un peu le contraire de l’ensemble Apple TV – iPad, où ce dernier a l’intelligence et l’Apple TV est un récepteur plus ou moins passif. Pire encore, ce concept est compliqué à vendre, d’ailleurs le public n’arrive pas à faire la différence entre Wii U et Wii.

WiiUBoutique

Vraie photo piquée à @kwyxz. Vont être contents les gens qui partant en promenade avec leur Wii U Gamepad et se rendront compte que ce n’est pas vraiment une « console portable »…

Pourtant, je ne dirais pas que la Wii U est une mauvaise console. Elle a des bons jeux, certains concepts sont sympas (j’aime bien la télécommande TV intégrée), pouvoir basculer de la télé à l’écran intégré sur certains jeux évite parfois la crise de nerfs familiale… mais elle est arrivée tard, à un moment où le marché se lance vers de nouvelles générations de consoles, avec des caractéristiques techniques pas forcément folichonnes (résolution du Wii Gamepad et autonomie bof). Les ventes sont faibles, ce qui n’entraine pas les développeurs tierce-partie à venir développer dessus. Et du coup les ventes restent faibles… le cercle infernal. Et surtout, elle manque cruellement de très bons jeux. Plus à ce sujet un peu plus loin.

Une autre faiblesse de la Wii U : ses caractéristiques techniques sont déjà obsolètes vis-à-vis la nouvelle génération de consoles. La Xbox One et la PS4 sont des monstres de puissance, qui ne font qu’une bouchée de la Wii U, compliquant encore les portages de jeux d’éditeurs tierce-partie vers la machine de Nintendo…

Bref, la Wii U ressemble fortement à une impasse… pour le moment.

Nintendo et le online

Il est difficile de ne pas évoquer la partie du jeu en ligne dans la stratégie de Nintendo. À mon goût, c’est très simple : elle est juste mauvaise. Le eShop est sympa mais tellement lent qu’il ne donne pas envie d’acheter. Enfin, les jeux son souvent trop chers… surtout si on est habitué aux tarifs des jeux sur l’App Store ! Mais c’est aussi une des difficultés de Nintendo qui doit à la fois plaire au client en proposant du jeu en ligne, mais distribue les mêmes jeux dans des canaux « en dur ». Par ailleurs, Nintendo a été très, trop long à embrasser les réseaux sociaux. Vouloir créer son propre réseau est intéressant, mais est-ce que c’est suffisant pour attirer les joueurs ? Le Miiverse (pourtant fort sympa, et à mon goût plus intéressant que les réseaux actuels sur console) n’est pas le réseau qui fera vendre la Wii U, surtout en restant cloisonné de Facebook ou Twitter… Pas plus que le service Tvii (pas dispo en France), ou Love Film (service de VOD pas dispo en France non plus, et terriblement mal nommé : à chaque fois j’ai l’impression que c’est le nom d’une chaine érotique…).

Il faut dire que Nintendo n’a jamais trop aimé le online, et a longtemps indiqué sa méfiance de ce marché. Il faut lire à ce sujet cet excellent (et très long !) article de Dromble sur la création de la GameCube, qui explique le retard pris par Nintendo sur le jeu en ligne. Et pour voir à quel point Nintendo a poussé l’amateurisme, il ne faut pas regarder plus loin qu’à Noël dernier, où des milliers de joueurs n’ont pas pu obtenir la copie de jeu numérique fournie avec leur console, le eShop étant en rade durant pas moins de cinq jours. Totalement inacceptable.

Les joueurs

Les articles évoqués ci-dessus ne prennent en fait qu’un seul point de vue : celui des acheteurs de smartphones. Autrement dit : les adultes. Qui ont effectivement un smartphone dans la poche, qui jouent avec lorsqu’ils ne passent pas un coup de fil ou ne rédigent pas un e-mail. Cette clientèle-là a effectivement été particulièrement touchée par la Nintendo DS, qui a été le carton planétaire qu’on sait.

Mais dans la plupart de ces articles, je ne vois pas une énorme partie de la clientèle de Nintendo : les enfants. Car Nintendo EST une boite qui vend  des jeux vidéo, et on pourrait même dire des jouets. Les enfants, ce sont eux qui harcèlent leurs parents pour acheter le nouveau jeu que tous leurs copains ont.

Par ailleurs, les attentes des joueurs adultes d’un point de vue technique sont différentes. Je vais prendre un exemple concret : ma fille, 9 ans, qui a eu du mal à déscotcher de sa 3DS durant tout l’été.

- Tu as pensé quoi de Mario et Luigi : Dream Team Bros ?

- J’ai bien aimé.

- Et ça t’a gêné que les écrans n’aient pas une bonne résolution ?

- Une quoi ? »

Voilà. Le côté technique, la résolution de l’écran, le fait que le tactile ne soit pas aussi bon que sur un iPod Touch… LES GOSSES S’EN FOUTENT. Ils se concentrent sur le plaisir du jeu, sur « est-ce que le jeu est entrainant », et ça leur suffit. J’avoue que je suis aussi un peu comme ça (je suis un grand gosse) : tant que le plaisir de jeu est là, peu m’importe si la résolution est trop basse. Si les contrôles sont bons, que le jeu est fun, ça me va. Ça n’est pas pour autant que Nintendo ne doit pas faire d’efforts sur la qualité visuelle, au contraire. Mais c’est moins critique que l’on pourrait le croire. Même si techniquement ce n’est pas le tout dernier cri, la console en a sûrement bien plus dans le ventre qu’on veut le faire croire… mais elle va forcément souffrir de la comparaison avec les consoles Next Gen.

Maintenant, vous aurez raison d’indiquer que les enfants ne sont pas les seuls joueurs, loin de là. Si Nintendo veut ré-attirer les gamers plus exigeants sur ses consoles, il faut qu’elle réussisse à faire venir des licences tierce-partie en facilitant le plus possible les portages des autres plate-formes, avec des SDK performants (un point sur lequel Nintendo est souvent à la ramasse). Sera-t-il facile de faire revenir un Rockstar Games et ses fameux GTA sur Wii U ? Rien n’est moins sûr. De même, Nintendo pourrait-elle faire disparaître l’aura de jouet de ses consoles ? Pas évident non plus… sauf à développer un vrai hit orienté adulte, et capable de déchirer techniquement ET graphiquement. Elle en est capable, mais en a-t-elle la volonté ?

Enfin entre les gamers et les enfants, il y a les… casual gamers, ces fameux joueurs occasionnels. C’est une cible qui a fait la fortune de Nintendo à une époque, en particulier avec la Nintendo DS et la Wii. J’en reparle un peu plus loin.

Les jeux

Malheureusement, en tant que vieux joueurs de la génération NES, on souhaiterait que Nintendo nous donne tout le temps des jeux rien que pour nous, les vieux joueurs. Il faut peut-être se faire à l’idée que désormais, Nintendo va avoir de plus en plus de mal à satisfaire cette clientèle de « vieux » joueurs. Encore que… des jeux originaux comme Wonderful 101 sont une tentative pour Nintendo de s’orienter vers un autre public, Bayonetta 2 (s’il reste une exclu Wii U) pourrait aussi en faire venir d’autres.

Bayonetta2

DAT ASS (oups, désolé)

Il n’empêche : Nintendo dispose d’ors et déjà d’une arme de guerre : ses licences, ses personnages… et en premier lieu, Pokemon. Dont un nouveau jeu, Pokemon XY, est sorti le même jour que la 2DS. Quelle curieuse et heureuse coïncidence ! Et il n’a pas mal cartonné, avec 11,6 millions de cartouches vendues.

Du coup, il semble malheureux que Nintendo exploite si mal la plupart de ses licences depuis quelques années. Faisons un peu le tour :

  • Super Mario Bros : après un épisode 3DS un peu plus original, beaucoup de resucées de New Super Mario Bros depuis 2006, et même un ratage (New SMB2). En revanche, Nintendo s’est bien réveillé avec un nouvel opus impressionnant : New Super Mario 3D World est fantastique, bourré de bonnes idées, et avec un challenge assez corsé. Malheureusement, beaucoup se diront « bah, c’est juste un Mario de plus », et c’est fort dommage, car c’est sûrement le meilleur Mario depuis Super Mario Galaxy 2.
  • Zelda : un épisode raté sur DS (Spirit Tracks), une reprise sur 3DS (Ocarina of Time 3D), une version HD de Wind Waker, un épisode 3DS inédit, mais qui est une excellente suite de Zelda III (mon test ici)… Essentiellement de la reprise, et de la suite donc… si l’on retire l’excellent Skyward Sword sur Wii.
  • Starfox : juste une (excellente) version 3DS de Starfox 64. C’est une série abandonnée hélas, alors qu’elle a un potentiel toujours énorme, et que les joueurs attendent désespérément une suite depuis quelques années déjà (ni Rare5 ni Namco ont su en tirer sa quintessence).
  • F-Zero : on attend toujours une suite au fantastique épisode GameCube…
  • Metroid : des épisodes fabuleux sur GameCube, un excellent épisode sur Wii (Metroid Prime : Corruption), et un véritable accident industriel avec Metroid : Other M. Depuis, rien.
  • Donkey Kong : pas de souci de ce côté, un épisode Wii U arrive, qui devrait être d’aussi bonne facture que le premier épisode Wii. Repoussé à mars 2014, aie.
  • Smash Bros : ça devrait être bon, mais ça n’arrive pas avant la fin de l’année, probablement. C’est très loin. Et ce n’est, encore une fois, pas très fédérateur :  si les fans de Nintendo boiront la coupe jusqu’à la lie, ça ne fera pas venir les fans de PS3 ou Xbox vers la Wii U. À la limite, ça aura un bon effet sur les ventes de 3DS.
  • Super Mario Kart : coming soon ! Celui-ci pourrait attirer du monde s’il garde l’esprit fun des épisodes précédents (et si ils virent cette PUTAIN DE CARAPACE BLEUE).
  • Pikmin : le troisième épisode est sorti sur Wii U, hélas très tardivement. Et même s’il est chouette, il n’a plus l’originalité du premier et n’aura pas permis une hausse significative des ventes de Wii U.
  • Kid Icarus : Nintendo l’a ressuscité, pour un jeu que je trouve sympa, sans plus (et il fait plutôt mal aux doigts).
Ss1
Super Mario 3D World est vraiment excellent. Mais pour le public, il restera « un Mario de plus »…
Il y a quand même eu une tentative de nouvelle franchise avec Wonderful 101 (pas testé, plutôt bien critiqué). Cependant, il est intéressant de voir (et ça, Marco Arment l’a bien expliqué dans ce billet) que le succès des consoles de Nintendo est étroitement lié à l’originalité de ses jeux de lancement. Le succès au lancement du Gameboy6 est clairement dû à l’ajout de Tetris dans la boite. De même, la Wii n’aurait pas rencontré un tel succès à son lancement sans la présence de Wii Sports dans la boite. Nintendoland a été une tentative somme toute sympathique de présenter les caractéristiques innovantes de la Wii U, mais ce n’est pas un produit d’appel aussi simple et compréhensible que le tennis de Wii Sports, et peut à ce titre être considéré comme un véritable échec. En fait, tout le concept de jeu asymétrique est sûrement à revoir : c’est une vieille marotte de Miyamoto (souvenez-vous de la funeste  liaison GBA/Gamecube…), mais pas forcément sa meilleure idée.
Le pire problème à aborder pour Nintendo va cependant être celui du prix des jeux. Est-il possible aujourd’hui de forcer les utilisateurs à acheter des jeux à 50€ ou plus, là où on trouve des nouveautés à quelques euros sur l’App Store, voire des logiciels gratuits mais financés par des achats in-app ? Pour moi, la plus grosse difficulté serait de pousser les joueurs à venir massivement acheter en ligne, en devenant beaucoup plus souple sur ses conditions de vente. Par exemple, c’est seulement depuis quelques semaines qu’il est possible de transférer ses jeux sur un nombre illimité de 3DS… Là où Apple a toujours proposé un système de licences beaucoup plus souple. Enfin, faire payer les jeux dématérialisés aussi chers que les jeux physiques… non, ça ne le fait vraiment pas.
De même, Nintendo dispose de jeux fantastiques dans la Console Virtuelle, mais… 3€ pour Ice Climber sur NES ? Sérieusement ? On trouve des jeux avec bien plus de finition pour trois fois moins cher sur l’App Store. Sans compter les choix bizarres de Nintendo, comme sortir Urban Champion, un jeu médiocre de la NES, plutôt que nombre de merveilles de la NES ou Super NES…
Nintendo devrait aussi fortement lorgner du côté du Playstation Plus ou Xbox Live Premium, en proposant un abonnement annuel permettant d’obtenir certains jeux gratuitement durant autant de temps que l’abonnement dure. Ça ne serait pas très complexe à mettre en place et ça pourrait rapporter rapidement très gros.
Enfin, un dernier mot sur ce sujet : Nintendo, pitié, stop avec les Nintendo Direct. Sérieusement, Iwata me fait de la peine à chaque fois. Et pense à réinvestir les salons. Je sais que tu n’aimes pas te mêler à la plèbe des autres éditeurs, mais fais quelques efforts pour redevenir sexy, vraiment.
Iwata

Nintendo doit-elle abandonner le hardware ?

Dire qu’il faut absolument que Nintendo abandonne le hardware me semble être un non-sens. L’histoire de Nintendo tourne autour de révolutions matérielles : les cartouches avec pile de la NES et sa croix directionnelle, la forme du pad et les boutons L/R de la SNES, le pad analogique de la N64, la Wiimote… Nintendo a développé ses consoles et leurs manettes en fonction de ses logiciels, et on se souvient de la célèbre citation d’Alan Kay. Rien ne dit qu’un Super Mario développé pour une console non-Nintendo sera génial (cf. Sonic par exemple, qui n’a pas vraiment donné grand chose de génial depuis qu’il a quitté la Dreamcast). En ajoutant une manette au smartphone, on ne fait que déporter le problème. Nintendo pourrait éventuellement développer sa propre manette pour smartphone, mais rien ne dit encore une fois que cela serait pratique ou agréable à utiliser, ou aussi naturel que de sortir sa 3DS de sa poche.
Nintendo va cependant avoir des difficultés à affronter les smartphones, car ses consoles ne peuvent affronter le rythme de changement plus soutenu de ces derniers : souvent proposés avec un abonnement dans la plupart des cas, leur parc est renouvelé assez rapidement, là où une console n’est en général renouvelée que tous les 5 ans (hormis les modifications plus esthétiques/ergonomiques, comme les consoles version XL).
En revanche, pour les fameux joueurs casual, je pense que c’est effectivement mort : le succès de Candy Crush Saga & co montre que le smartphone a gagné cette bataille. Une grosse partie des joueurs conquis par la DS pour des jeux qui n’avaient rien de commun (et pour beaucoup, totalement portables sur un smartphone en revanche), ont abandonné le navire et n’y reviendront plus. En 2004, il y avait encore une différenciation très claire entre les jeux pour consoles et les jeux pour soi-disant smarthones dont le prix était bien plus élevé (le P800 de Sony Ericsson était à 1000€, quand même). L’iPhone a ringardisé les smartphones à clavier précédents, mais également les consoles de jeu. Pour tirer quelques bénéfices de ces joueurs occasionnels perdus, envisager d’adapter des jeux comme Mario’s Picross pourrait être pertinent, tant que le cœur du jeu se prête à une utilisation tactile. Mais le cœur des jeux action/ plate-forme de la firme de Kyoto ne semble pas adapté aux smartphones. N’espérez pas voir un Mario ou un Zelda sous sa forme actuelle7.
Zelda sur iPhone ?
Un Zelda sur iPhone ? Et… pourquoi pas ? Mais pas forcément n’importe lequel.
Tout tient en fait dans le style de jeux : certains pourront être adaptés aux smartphones, d’autres pas du tout. À Nintendo de faire les choix pertinents.

2014, l’année de tous les dangers

Bref, pour Nintendo, il va y avoir du mal à se faire une place au soleil avec l’arrivée de la Xbox One et la PS4 et la guerre sans merci livrée du côté des smartphones. Pour autant, je ne pense pas que ça soit le moment de se lancer dans une stratégie d’attaque du marché mobile… Mais si côté jeux, ça ne se réveille pas rapidement, il va vraiment y a avoir du mouron à se faire, non pas à cause de la concurrence de ces nouvelles consoles next Gen, mais parce que des machines comme la PS3 deviennent très accessibles, ont un catalogue très vaste et des caractéristiques techniques qui ne font pas encore pitié…
2014 sera donc une année charnière. Nintendo devra absolument convaincre du côté logiciels, et la meilleure façon pour cela serait de proposer un voire plusieurs killer games capable de toucher autant les hardcore gamers, autant que des joueurs plus occasionnels ou plus jeunes. Elle en a été capable : la N64 était annoncée comme tuée par la Playstation, mais Zelda : Ocarina of Time et bien d’autres jeux (les licences Rare, entre autres) ont permis à Nintendo de gagner de l’argent et de largement étendre son audience.
Augmenter également sa présence online, améliorer la communication avec les smartphones soit via des apps dédiées à améliorer la communication avec ses jeux ou carrément adapter certains jeux ou développer de nouvelles licences pour les smartphones, les chantiers seront importants. Tout ça pour limiter la casse avec la Wii U, et passer rapidement à the next big thing. Et évidemment, baisser le prix de ses consoles, et éventuellement de ses jeux.
K bigpic
Nintendo a du pain sur la planche. Son combat ne fait réellement que commencer. Mais personnellement, je croise les doigts pour voir arriver quelques merveilles dans quelques mois. Le prochain E3 devrait à ce titre être déterminant, et Nintendo jouera son va-tout. Sans grosse nouveauté marquante, elle risque fort d’avoir très mal à se relever…
En complément : lire cet article de Wired, qui explique à quel point la situation est complexe. Bon, d’un autre côté, Wired avait fait aussi un paquet de prédictions sur Apple en 1997 hein :-)
  1. Pour tout avouer, j’ai commencé à écrire cet article il y a trois mois, et je l’ai réécrit plusieurs fois.
  2. Pas pour rien qu’elle ressemble à une console V-Tech, même si de ce côté, Nintendo n’a jamais eu à trop craindre grand monde
  3. Nintendo déconseille l’utilisation de la 3D pour les joueurs de moins de 20 ans
  4. La preuve : même mes sœurs ont joué à la Wii et en ont une
  5. Pas leur faute cela dit, le jeu qu’ils avaient développé, Dinosaurs Planet, s’est vu collé les persos de Starfox à la dernière minute. Pas merci Miyamoto.
  6. Ou la Gameboy, je me tape des polémiques sur le sujet, dites comme vous préférez.
  7. Encore que… Zelda Phantom Hourglass ou Spirit Tracks, bien que n’étant pas les meilleurs de la série, pourraient se voir adaptés en version portable vu qu’ils avaient été pensés tactiles.

Révolutionnaire

Il y  a quelques jours, j’ai été un membre actif d’une petite discussion lancée par un tweet de Cédric Ingrand, qui s’interrogeait sur le fait qu’Apple ne serait plus un moteur d’innovation. Samsung serait donc bien plus innovant qu’Apple, et ça serait la fin des haricots pour cette dernière, puisque Samsung a pris la première place du vendeur de smartphones (encore que ce chiffre pourrait être sujet à discussion, mais c’est un autre débat).

Après la tempête, le calme doit revenir

Être révolutionnaire ne peut être un état permanent. Un pays en révolution permanente n’est pas un pays stable. La révolution peut apporter un changement, mais il doit ensuite y avoir une stabilisation pour que cette révolution prenne corps.

Imaginez si Apple lançait réellement une révolution chaque année. Déjà que les Guignols se foutent de sa gueule à chaque lancement de produit…

Apple est capable de changer la course d’une industrie, comme elle l’a démontré. Mais il n’est pas forcément évident d’inventer ou de trouver the next big thing. Les marchés sur lesquels Apple peut se lancer existent, et le succès de l’iPhone a montré qu’elle était capable d’apporter un véritable sang neuf. Cependant, espérer chaque année un produit capable d’enterrer la génération précédente ne peut pas être viable. Il faut de temps en temps laisser souffler le public. Quelque soit le talent d’une entreprise, elle ne peut pas imposer du changement permanent.

Du véritable usage de la révolution

Apple a créé de nombreuses révolutions depuis sa création :

- Le premier vrai ordinateur pour tous dans un boitier plastique avec l’Apple ][ ;

- Le premier vrai ordinateur pour tous équipé en standard d’une interface graphique avec le Lisa puis le Macintosh ;

- Le premier vrai ordinateur multimédia pour tous avec le Mac II vx ;

- Le premier ordinateur pour tous équipé d’un port USB, avec l’iMac ;

- Le premier ordinateur portable pour tous équipé en standard d’une technologie Internet sans fil, avec l’iBook.

- Le premier vrai lecteur MP3 pour tous avec l’iPod ;

- Le premier vrai smartphone pour tous avec l’iPhone ;

- La première vraie tablette pour tous avec l’iPad.

Vous noterez cependant un point important dans ces révolutions.

Apple n’a inventé aucune de ces révolutions technologiques. 

Apple n’a pas créé la première tablette, ou le premier lecteur MP3, ou le premier smartphone ou encore la première interface graphique, ou le premier ordinateur équipé de ports USB. D’autres constructeurs pourraient se gausser d’avoir créé ces technologies.

Mais la force d’Apple est d’avoir su détecter dans ces technologies leur potentiel, et leur avoir permis de s’épanouir pleinement. D’avoir misé dessus, parfois énormément, en pensant être capable de faire sortir une technologie de l’ornière pour la rendre accessible au plus grand nombre.

Le terme « pour tous » que j’ai utilisé plus haut est cependant usurpé. Apple préfère souvent utiliser for the rest of us : pour nous, qui ne sommes pas des informaticiens et n’avons pas envie de le devenir. Et c’est exactement ce qui fait la force d’Apple : proposer une technologie comme le Wi-Fi, et la rendre utilisable par un enfant de 10 ans. Qui peut nier aujourd’hui que le Wi-Fi a révolutionné de nombreux usages de l’informatique et de la mobilité ?

Il y a évidemment de la provocation dans mon propos. Quand je dis que l’iPod est le premier lecteur MP3 pour tous, c’est évidemment faux sur un point : son tarif pouvait être considéré comme prohibitif, mais finalement était justifié par rapport à la technologie alors embarquée. Et ce que fait payer Apple, outre son design, c’est aussi cette facilité d’utilisation et cette cohérence entre le matériel et le logiciel.

Apple ne va donc pas forcément se lancer sur un marché juste pour faire plaisir à des analystes, qui voient dans le nombre de ventes d’un produit son potentiel. Alors qu’il faut prendre un appareil technologique dans son ensemble. On avait par exemple reproché à Apple de ne pas vouloir vendre d’ultra-portable à bas prix (les fameux netbooks), niant ici totalement son positionnement produit pour le placer face à Dell ou HP. Aujourd’hui, le marché des netbooks est mort, et a même fait du mal au marché du PC en général.

Alors évidemment, quand Apple annonce une révolution pour chaque nouveau produit, c’est forcément une hyperbole. Et comme je dis souvent, c’est un peu normal qu’Apple dise que chacun de ses nouveaux produits est le meilleur de sa catégorie1.

Des révolutions architecturales

Apple a sorti tous les produits cités précédemment en menant en même temps des nombreuses modifications d’architectures, des transitions parfois extrêmement risquées : citons évidemment la transition du PowerPC vers Intel, mais aussi celle vers l’architecture ARM, ou encore le passage de Mac OS 9 à OS X. Chacun de ces chantiers a été colossal, souvent audacieux, et assez brillamment réussi.

Ces chantiers sont cependant assez colossaux pour nécessiter de nombreuses années, mais on peut en voir une grande partie des bénéfices aujourd’hui. Le passage vers Intel a été un succès, avec des ventes de Mac en augmentation2, on peut enfin jouer à des tonnes de jeux  sur Mac, l’App Store pousse au développement de nouvelles applications, les développeurs reviennent justement en masse… Très positif donc.

Mais Apple n’a donc aucun problème en ce moment ? 

Si. Je pense que le principal problème actuellement avec Apple n’est pas avec le matériel, mais plutôt au niveau du logicielEt plus exactement, la stagnation inquiétante des logiciels qu’elle développe elle-même :

  • Apple a sorti iLife en 2003, et cette suite logicielle a été un incroyable argument vendeur du Mac.
  • iWork 09, dans une certaine mesure, a contribué à relancer une certaine concurrence à Microsoft Office (surtout grâce au merveilleux Keynote).
  • Aperture semble constituer une alternative intéressante à Adobe Lightroom.
  • Et Final Cut Pro était une arme ultime pour la création vidéo.
  • Apple avait aussi des ambitions côté serveur, en allant jusqu’à se lancer dans le SAN. Ça a fait pschit.
  • Sans oublier son outil de gestion Apple Remote Desktop…

Malheureusement, sur tous ces logiciels, il n’y a pas forcément eu de révision majeure depuis quelques années, à part l’évolution critiquée de Final Cut Pro X.  La suite iLife n’a pas vu de remplaçant à iDVD ou iWeb, iWork stagne et s’est même vu amputé de ses fonctions Internet avec l’abandon d’iWork.com, Aperture n’a pas évolué, Final Cut X est enfin sorti mais en version tronquée (même si des mises à jour ont corrigé pas mal de manques)…

En clair, côté logiciels Apple sur Mac, c’est pas la joie, et on ne voit vraiment rien de révolutionnaire. Mais n’est-ce pas là aussi la faute de l’iPad ? Ce dernier a eu entretemps de nombreuses mises à jour de logiciels, dont une version complète d’iWork, ainsi qu’iMovie, iPhoto et Garageband ! Et je ne serais pas surpris que le manque d’évolution côté Mac vienne de ces évolutions côté iOS, Apple étant connu pour avoir des équipes de développement resserrées.

Je pense cependant que cette période de transition des applications vers iOS est un chantier qui se termine, et désormais les versions Mac et iOS vont évoluer conjointement, ne serait-ce que pour pousser la synchronisation avec iCloud des documents entres ces plates-formes. Les logiciels devraient évoluer dans une meilleure direction et devraient permettre à nouveau de faire rayonner la plate-forme Apple. Car après tout, ce qui fait vendre les machines, ce sont aussi les logiciels, et c’est à Apple de montrer l’exemple en proposant les meilleurs logiciels du marché.

Cette nouvelle année devrait être donc passionnante… même si Apple ne révolutionne pas un nouveau marché. Mais ne serait-ce que parce que ses plates-formes n’ont jamais été aussi vivantes.

  1. Imaginez Tim Cook qui monterait sur scène un jour en disant : « bon, on vient de sortir un produit, mais c’est pas le meilleur, hein, y’a machin ou trucmuche qui font beaucoup mieux. »
  2. Bon OK, pas au dernier trimestre, mais pour plein de raisons bonnes ou mauvaises d’ailleurs.

Goodbye Google (et Gmail)

Gmail logo

C’est fait : j’ai supprimé mon compte Google. Et donc, viré ma boite Gmail au passage.

Pourquoi ?

Il y a plusieurs raisons à cela. La première, et sûrement la meilleure, est que… finalement, je ne l’utilisais quasiment pas. Oh, j’avais bien quelques services pratiques chez Google, mais rien d’irremplaçable. En réalité, la fonction que j’utilisais le plus dans Gmail, c’était son filtre antispam, ceux de mon hébergeur (1and1) n’étant pas bien efficace à l’époque. Ça a l’air d’être bien mieux aujourd’hui. Et dans le pire des cas, il y a d’autres solutions, comme SpamSieve, ou passer par un SMTP supplémentaire nettoyant le mail (dyn.com propose ce service). La seule fonction qui va peut-être me manquer, c’est la synchro des flux RSS. Peut-être que je créerai un autre compte Google (anonyme, celui-ci) uniquement à cet usage. Je verrai.

La deuxième raison : ces « innovations » de Google m’inquiètent de plus en plus. En clair : Google souhaite utiliser vos e-mails pour proposer des résultats de recherche supplémentaires lors d’une requête sur sa page principale. Alors évidemment, j’ai très bien compris que ce n’est pas parce que vous faites une recherche dans Google que vous allez taper dans mes mails. Mais quand même, je n’aime pas ce procédé. Certains l’apprécient peut-être, moi pas.

Google était formidable, il y a dix ans. Lorsque Google faisait son cœur de métier, et le faisait bien : proposer juste de la recherche, rapide, avec juste une barre de recherches, et… c’est tout. Depuis l’avènement de Facebook et d’iOS, Google flippe que l’utilisateur se détourne de la recherche, et donc, de ses revenus, puisque Google tire ses revenus de la publicité intégrée dans ses pages de résultats. Et cela la pousse à aller sur des terrains très glissants. Sûrement trop.

Gmail était également formidable à sa naissance, en 2004. À cette époque où les hébergeurs filaient royalement 10 ou 20 Mo de stockage pour le mail, Google en proposait 50 à 100 fois plus. Si vous vous demandez pourquoi avoir une adresse Gmail était très recherché… N’allez pas voir plus loin. Gmail a permis à Google de récupérer des tonnes de nouveaux « clients » simplement en proposant une solution BEAUCOUP plus intéressante par le seul aspect du stockage. Stockage qui ne lui coûtait d’ailleurs probablement presque rien : est-ce que tous ces utilisateurs exploitaient (ou exploitent toujours) réellement cet espace de stockage ? Cette mutualisation a évidemment fait énormément de publicité au service, qui, de plus, était fort bon, et a proposé très rapidement le protocole IMAP, à un moment où les appareils mobiles ont commencé à débarquer.

Un autre point important : j’utilise très peu les solutions web. Traitez-moi de vieux con si vous voulez, mais… je préfère toujours avoir les données en local, dans une application dédiée. Le webmail me donne des boutons, car j’ai toujours l’impression d’une solution moins évoluée techniquement que ce que me propose un client mail intégré. Un exemple tout bête : je suis un dingue du Glisser-Déposer. Je n’utilise jamais le bouton Ajouter une pièce jointe dans mon application de mail, car je l’ajoute toujours via un Glisser-Déposer. Or, quand je travaille avec une solution en webmail, la seule solution1, avec Safari, consiste à glisser la pièce jointe exactement sur le bouton d’ajout de PJ. Quand j’utilise Mail, je peux glisser ma pièce jointe n’importe où dans la fenêtre entière, ce qui rend les choses bien plus simples. Du coup, toutes les options kikoolol de Gmail… je ne les exploite jamais. Les fonctions d’archive, de tchat intégré, de recherche hyper balaise… Du vent, pour moi. Je précise bien pour moi. Si vous les appréciez et les utilisez, tant mieux. Personnellement, je n’y arrive pas.

Alors, quelle solution ?

En 1994, le sujet du bac de philosophie était : « Un acte gratuit est-il possible ? ». Comment je sais cela ? Parce que c’était l’année de mon bac, bien évidemment. Ma réponse, appuyée par des exemples des pubs de lessive (mais oui) était alors qu’il était quasiment impossible qu’un acte purement altruiste existe vraiment2.

Un service gratuit impose une contrepartie. Il faut un modèle économique pour qu’une entreprise survive. Soit le service est payant, soit il propose une gratuité à travers la publicité. Pour Gmail, la question ne se pose pas : le service est gratuit, et financé par une publicité particulièrement ciblée.

Si vous utilisez des produits Apple, vous pouvez utiliser iCloud, qui est… gratuit ! Mais pas totalement, en réalité : iCloud est financé par les produits Apple que vous achetez. N’oubliez pas qu’Apple tire la majorité de ses profits de la vente de matériel. iCloud n’a d’intérêt que si vous utilisez des produits Apple3

Personnellement, pour ce qui est de l’e-mail, j’ai depuis 1998 ans adopté toujours la même stratégie : utiliser uniquement des adresses e-mail liées à mon nom de domaine. Un nom que je paye chaque année, quelques euros par an. C’est un premier pas vers une certaine indépendance. Avantage énorme : votre adresse e-mail n’est plus liée à un hébergeur particulier. Vous pouvez changer d’hébergeur comme de chemise, c’est invisible pour tous vos correspondants. Un autre avantage : un nom de domaine à votre nom fait un poli plus sérieux.

J’utilisais Gmail quasiment uniquement pour le filtrage des e-mails. Ma stratégie était alors la suivante :

- Je crée autant d’alias que souhaité en @gete.net ;

- Chaque alias redirige vers mon compte Gmail ;

- Les messages non bloqués par le filtre antispam sont redirigés vers un compte unique de mon hébergeur, compte qui ne correspond pas à une adresse e-mail que j’utilise.

- Je relève alors via IMAP uniquement le contenu de cette boite.

L’un des avantages de cette méthode : elle évite de multiplier les comptes à relever. Je n’exploite qu’un seul compte, et ça me va très bien. Et comme tout est en IMAP, pas de problème de synchronisation entre Mac, iPhone et iPad.

Et à noter que tout ceci ne pose pas de souci, pour une raison bien précise : j’utilise Mail sur OS X. Et ce dernier sait gérer plusieurs adresses e-mails sur un seul compte (contrairement à Entourage ou Outlook). Du coup, je n’ai qu’un seul compte à relever pour récupérer les messages envoyés à toutes mes adresses e-mail, et je peux envoyer avec toutes ces adresses e-mail. Pratique. Et à noter que cette astuce fonctionne également sur iOS.

C’est une stratégie qui semble alambiquée sur le papier, mais elle est réellement efficace. Et surtout, elle me permet d’utiliser les mêmes adresses e-mail depuis 1999, malgré les changements de FAI ou d’hébergeur. C’est une indépendance qui a un certain coût, mais… elle est très agréable.

Comme déjà dit, mon usage de Gmail était très limité. Donc impact également très limité. Mon action sur Gmail 

Et pour le reste ?

Restent les autres services proposés par Google, et liés au compte Google :

  • Youtube : je n’ai publié qu’un tout petit nombre de vidéos sur YouTube. J’ai récupérées celles que je trouvais vraiment intéressantes et je les mettrai en ligne plus tard sur Vimeo
  • RSS : pour la synchronisation des flux RSS, malheureusement peu, voire pas de solutions. Peut-être que je recréerai un compte Google, anonyme, juste pour cet usage.
  • Analytics : mon hébergeur me propose une solution d’analyse, pas géniale, mais je m’en fous un peu, pour être honnête. Je ne vis pas vissé sur mes stats. Mon métier n’est pas lié au web. Certes, ça m’amuse de voir parfois les pics de connexion lors d’une sortie de Lion DiskMaker. Mais ça ne va pas plus loin. Je ne monétise pas le contenu de ce site.
  • iGoogle : je n’utilise pas. Ma page de démarrage est vierge par défaut.
  • Maps : je me suis toujours limité aux fonctions assez basiques de Maps. Pas trop d’impact pour moi. J’ai juste mis un lien personnalisé vers mon adresse sous forme de lien, que j’ai stocké dans la barre des signets de Safari.
  • Google Plus : AH AH AH ! Ahem.
  • Synchro calendriers / Carnet d’adresse : ça fait des années que j’utilisais MobileMe, puis iCloud, donc pas besoin de changer ici. Car j’ai curieusement beaucoup plus confiance envers Apple qu’envers Google pour respecter ma vie privée. C’est peut-être une erreur, mais… c’est comme ça.
  • Stockage : le coût du stockage ayant fortement baissé, l’avantage qu’avait Gmail a disparu. Tous les hébergeurs proposent désormais une quantité de stockage largement suffisante pour héberger nos mails et un bon paquet de données.

La grande question : quel est le coût de notre indépendance ?

Peut-être que je suis naïf, peut-être que l’indépendance n’existe pas, sauf à carrément monter son propre serveur chez soi, et là, je me dis même : pourquoi pas ?. Mais je n’en suis pas encore là. Pour le moment, quitter Google n’aura pas un impact majeur chez moi. Mais là encore, il ne s’agit que de mon expérience. Peut-être qu’il vous sera plus difficile de quitter Gmail. Peut-être même que vous ne souhaiterez pas le quitter.

Mais… laisser toutes nos données personnelles dans les mains d’une entreprise qui était fière d’indiquer qu’il ne fallait pas être malveillant dans sa devise et qui semble aujourd’hui fort sujette à caution me semble être une erreur. On peut rester vigilant. Google n’est pas encore totalement irremplaçable… même si cela a un coût.

  1. La plupart du temps, ça s’améliore de nos jours
  2. J’ai eu 11/20.
  3. On pourra me rétorquer qu’on pourrait très bien utiliser iCloud pour ne faire que de la synchronisation entre deux PC, et… c’est vrai. Mais je ne pense pas que ça soit un usage majoritaire, loin de là.

Le mystère du logo à l’envers

John Gruber pointe aujourd’hui vers le blog de Joe Moreno, qui a travaillé chez Apple en tant que consultant WebObjects, et qui explique pourquoi le logo Apple est repassé dans le bon sens quand le portable est ouvert. L’argument qu’il présente est intéressant, et même plus que cela : il atteste du fait que jusqu’au PowerBook G3 (FireWire, nom de code Pismo), la pomme était effectivement à l’envers quand le portable était ouvert.

Sex and the city s4e8 powerbook g3 1

Notez que dans cette série, le portable jouait mieux que l’actrice derrière lui.

L’explication alors donnée était simple : cela permettait à l’utilisateur de savoir dans quel sens attraper et ouvrir sa machine. Je me souviens qu’à l’époque, cette question revenait régulièrement lors des formations commerciales Apple que j’animais. Et surtout, surtout, à l’époque, une FAQ de la TIL 1 expliquait le problème en détails. C’était un article totalement officiel, en provenance directe d’Apple, ce que semble confirmer Joe Moreno.

Mais le plus intéressant dans l’histoire est arrivé à l’époque de la sortie du PowerBook G4.

PbG4

Et là… c’est le drame.

C’est à ce moment que la Pomme est repassée dans le bon sens, portable ouvert. Et à ce moment précis, un événement intéressant s’est produit : l’article de la TIL susmentionné a tout simplement… disparu. Volatilisé. Je ne l’ai plus jamais retrouvé, quand bien même je sais l’avoir vu. Et  le problème de la Pomme Karen Cheryl, qui n’en était théoriquement pas un, l’est devenu pour moi, surtout avec les PowerBook G4 Aluminium, que j’ai tenté d’ouvrir des dizaines de fois dans le mauvais sens, aucun indice visuel n’étant donné si on le saisit en le visualisant de haut… à part la Pomme, donc.

Peut-être qu’il est temps qu’Apple se penche réellement sur le problème, en ajoutant une Pomme qui change d’orientation selon que le portable est ouvert ou non… Allez Apple, surprends-nous !

  1. Tech Info Library, ancêtre de l’l’actuelle Knowledge Base

Quelle télécommande pour donner une présentation ?

Il y quelques jours sur Twitter, Audrey Couleau m’a signalé un tweet de Compétences Mac, le site ayant publié un article intitulé : UN POINTEUR LASER POUR RÉUSSIR VOS PRÉSENTIONS À COUP SÛR.

Manque de bol, contrairement à ce que pensait Audrey, c’est sûrement une des pires télécommandes qui soient. En présentation, la télécommande la plus simple restera toujours la meilleure, parce que lorsqu’on a le stress de devoir assurer devant 500 personnes pas forcément acquises à votre cause, il faut éviter au maximum que la technique soit contre vous.

Par conséquent, une télécommande doit répondre à mon avis pas si humble du tout à des critères bien précis. Entre autres, elle doit :

  • bien tenir dans une main. S’il vous faut deux mains pour l’utiliser, il y a une erreur d’ergonomie quelque part. Si c’est une brique, pas la peine d’y penser. Idéalement, le public ne voit même pas que vous avez une télécommande dans la main. Rendez la technologie invisible : cela participera à la magie de la présentation.
  • être utilisable sans même avoir besoin de la regarder. Du coup, exit les télécommandes avec des tonnes de boutons. La télécommande idéale ne devrait avoir que trois boutons au maximum : diapo suivante, diapo précédente1 et passer la présentation en mode écran noir.
  • être utilisable même si l’ordinateur n’est pas visible. Exit donc les télécommandes infrarouge, et bonjour les télécommandes à onde radio ou Bluetooth.
  • fonctionnelle en quelques secondes. Si vous présentez régulièrement, vous savez sûrement qu’il arrive parfois qu’on ait très peu de temps pour se préparer avant une conférence lorsque celles-ci s’enchaînent. Or, s’il vous faut du temps pour connecter votre télécommande à un réseau Wi-Fi ou configurer votre ordinateur en borne Wi-Fi, connecter votre iPhone, lancer l’application Keynote Remote2, s’assurer que tout fonctionne bien… Vous risquez de perdre trop de temps. Qui plus est, si vous vous connectez à un réseau Wi-Fi tierce partie, vous risquez de dépendre d’un matériel qui pourrait s’avérer défaillir durant la présentation. Autant limiter les risques. Personnellement, les quelques fois où j’ai du utiliser mon iPhone comme télécommande, je m’en suis mordu les doigts.
  • Ne pas intégrer de pointeur laser.
Tiens, parlons-en du pointeur laser : lorsque j’en vois un utilisé par un présentateur, j’ai envie de lui saisir sa télécommande et lui enfoncer le laser dans l’œil. Outre le risque d’aveugler son assistance par un geste maladroit, j’ai tendance à penser que si on doit pointer quelque chose avec un laser, c’est qu’il y a un souci dans la conception de la diapositive. En plus, si les gens passent leur temps à essayer d’éviter le laser que vous allez leur pointer dans les yeux, ils vont cligner des yeux. Et vous connaissez le risque.
 
 

Dontblink

 
 
Si dans le cheminement de votre présentation, vous pensez « Ah tiens, il faudrait que je pointe ça avec ma télécommande », brûlez la diapositive, et refaites-la. Imaginez par exemple que votre télécommande tombe en panne pile poil durant votre présentation… Hop, plus de laser, et d’un seul coup, de grosses difficultés à continuer le cheminement de la présentation. Pas bon. Le public ne vient pas voir un point sur un écran : il vient vous voir, vous.
Enfin, les pointeurs laser sont interdits dans les avions. Si vous voyagez beaucoup, ça risque d’être une plaie.
 
Alors, quelle est la télécommande idéale pour moi ? Et bien, la voici, ta-daaaaaaaaaaaaam !
Keynote si600 Remote
 
Le modèle que j’utilise – cadeau de mon épouse – est la 33374, qui intègre un laser, mais ce modèle sans laser vendu par Amazon devrait tout aussi bien s’y substituer. Avantages de cette télécommande : 
  • Elle fonctionne par onde radio avec une excellente portée ;
  • Le module USB se loge dans la télécommande quand il n’est pas utilisé (même s’il est un peu gros et donc dépasse pas mal de l’ordinateur) et coupe le laser, donc les piles ne s’épuiseront pas inutilement dans votre sac ;
  • Elle fonctionne en mode Plug’n’Play total : vous la branchez, et vous pouvez l’utiliser sans configuration aucune avec Keynote ou PowerPoint ;
  • Elle épouse bien la forme de la main, avec une texture agréable ;
  • Elle n’est pas trop grosse ni trop petite ;
  • Elle est manipulable uniquement avec le pouce, avec des boutons assez gros et assez espacés pour qu’on ne s’y trompe pas ;
  • Elle fonctionne avec 2 piles bâton AAA. Pas forcément plus mal que des batteries rechargeables : en cas de doute horrible, vous n’aurez pas à chercher un câble idiot qu’on n’a jamais sous la main mais juste à réinsérer des piles neuves3.

Vous savez donc ce qu’il vous reste à faire pour rendre vos présentations… magiques !

  1. Et encore, certains diront que c’est un bouton de trop. Ne soyons pas trop extrême quand même.
  2. Si vous utilisez Keynote, mais évidemment que vous utilisez Keynote hein ?
  3. Dont vous emporterez évidemment un jeu dans votre sac par pure sécurité.

Les CGU sont imbitables. C’est pour ça qu’on ne les aime pas.

Gonzague Dambricourt publie un billet intéressant ce matin sur les cris d’orfraie  que l’on entend dès qu’un nouveau service en ligne ouvre, comme c’est le cas pour le tout nouveau Google Drive. Et il a raison :

« Comme à CHAQUE fois qu’un service web sort, les « chevaliers blancs » d’Internet vont lire les conditions générales d’utilisation (CGU) desdits services pour pouvoir sortir un article ou des tweets en mode « scandale ». »

Mais j’ai quand même tendance à penser que c’est un peu normal de s’étonner, lorsqu’on lit quelque chose comme :

« Vous restez le propriétaire de tous les droits de propriété intellectuelle dont vous disposez sur ce contenu. En bref, ce qui vous appartient vous appartient. »

“Lorsque vous téléchargez ou soumettez un contenu à nos services, vous accordez à Google (et ceux avec qui nous travaillons) une licence mondiale  pour utiliser, accueillir, stocker, reproduire, modifier, créer des œuvres dérivées (telles que celles résultant de traductions, adaptations ou d’autres changements que nous faisons, de sorte que votre contenu fonctionne mieux avec nos services), communiquer, publier, représenter, afficher et distribuer un tel contenu. ”

On pourrait être d’accord pour dire que la CGU est abusive… puisqu’elle donne grosso modo tous les droits sur votre contenu à Google. Surtout, il n’est pas clairement précisé que c’est pour des raisons techniques que Google a besoin de cette clause.

Pour moi, l’autre souci dans le texte, c’est ceux avec qui nous travaillons.
Qui sont ces gens ?
Quels sont leurs réseaux ?
Je ne suis pas du genre à voir le mal partout. Le problème, c’est surtout que ces conditions générales d’utilisation sont juste imbuvables. Le charabia juridique utilisé dans ces CGU n’est compris que par peu de gens, et tout est fait pour masquer ce contenu dans les tréfonds de 40 pages de texte à usage légal.
Ne croyez pas que je sois particulièrement désagréable parce que c’est Google : la licence d’iTunes est bien pire (22 pages), la faute évidemment à l’intégration avec iTunes Store et autres joyeusetés.
Il faut que les CGU deviennent réellement utilisables. Un étudiant avait fait une proposition dans ce sens, et il y avait effectivement de l’idée. Mais tant que ces licences d’utilisation resteront aussi opaques, on aura droit à des commentaires pas forcément injustifiés.

Le Mac est le futur Apple II

Apple II

J’allais écrire un long billet sur le futur de Mac OS X, mais David Bosman m’a utilement précédé il  y a assez longtemps pour exprimer une grosse partie de ce que je ressens ces jours-ci.

Surtout, la question ultime à se poser : est-ce qu’Apple peut se débarrasser complètement du Mac ?

La réponse me semble de plus en plus claire : oui. Juste pas tout de suite. Mais ça arrivera.

À ceux à qui cela semblerait juste dingue, souvenez-vous de l’Apple ][. Le premier grand succès d’Apple a continué à se vendre après le lancement du Mac 1. Et il a permis à Apple de survivre jusqu’à ce que le Mac prenne le dessus… Mais les meilleurs choses ont une fin, et Apple a du tuer à un moment un de ses produits-phares pour que vive son autre produit majeur.

Apple n’a jamais eu peur de laisser une technologie pour passer à une autre. Elle a abandonné à vitesse grand V Mac OS  Classic pour passer à Mac OS X. Elle a abandonné l’ADB et le SCSI pour foncer vers USB. Demain, Apple abandonnera peut-être définitivement le Mac pour nous faire tous passer sur iOS. Il suffira à ce dernier d’être assez mur pour permettre de faire tout ce dont on a besoin sur Mac OS X. Il le fera différemment, sûrement de façon plus simple, plus pratique. Ou très différemment. L’essor du tactile augmentera les usages, permettra de nouvelles interfaces innovantes dans les apps… Apple n’hésitera pas à se débarrasser de tous ses fardeaux. Et au vu de son chiffre d’affaires actuel, le Mac sera probablement bientôt un fardeau.

Mais dans quelques années, on ne regardera peut-être plus le Finder, ou les menus déroulants, ou le bureau qu’avec nostalgie. En nous disant que finalement, cette évolution était logique…

 

  1. Et même bien au-delà, le II GS n’ayant été arrêté que fin 1992 !