Category Archives for "Les meilleurs articles"

Repositionner le slip

En 2012, la startup leslipfrançais.fr lançait une gamme de sous-vêtements masculins fabriqués en France et vendus exclusivement par internet. L’entreprise a connu un succès rapide et son chiffre d’affaire est passé de 200 000 € à 13 millions d’euros en 5 ans. Comment expliquer le succès de cette startup qui a lancé un produit que l’on trouvait déjà partout ? Nous verrons dans cet article comment de nombreuses startup ne cherchent pas à s’attaquer à des problèmes nouveaux. Elles utilisent des stratégies de repositionnement pour présenter un produit déjà existants sous un angle nouveau.

Un produit innovant doit-il nécessairement résoudre un problème ?

Pour les animateurs de la communauté Lean Startup, un produit innovant doit résoudre un problème. L’entrepreneur qui a une idée de produit émet l’hypothèse qu’il existe quelque part un client qui verra son problème résolu grâce à ce produit. L’entrepreneur innovant doit donc rapidement identifier ce futur client et confirmer l’existence du problème grâce à des tests.

Réussir enfin à faire pousser des aromatiques en intérieur

C’est sur ce modèle qu’une startup comme pretapousser.fr s’est lancée en 2015. L’entreprise propose à ses clients des kits pour réussir son potager d’aromatiques. Ce denier contient les pots, leur système d’hydratation, les graines et un éclairage. Il suffit que le client plante ses graines et le dispositif mis au point par la startup permet d’obtenir des résultats très satisfaisants en quelques semaines.

pretapousser.fr répond à deux problèmes bien identifiés :

  • il est difficile pour un particulier d’avoir des plantes aromatiques fraiches à toute saison
  • les plantes aromatiques vendues en pot sont difficiles à conserver plus de quelques jours en intérieur.

Le système que la startup a créé répond à ces deux problèmes.

Une startup ne résout pas nécessairement un problème

Dans le cas du Slip Français, nous voyons les limites du modèle du Lean Startup. En produisant un sous-vêtement masculin en France, l’entreprise contribue à son échelle à la préservation de l’industrie textile française. Mais ce problème n’est pas celui de l’acheteur. À l’exception de l’agroalimentaire, le made in France n’a jamais été un facteur de résolution d’un problème pour un client.

Faire du slip un objet de convoitise

Le Slip Français est apparu dans un secteur que l’on aurait pu croire saturé où il n’y avait aucun problème à régler. Mais, les créateurs de l’entreprise ont surtout réalisé que le slip ou le boxer étaient jusqu’alors une pièce sans désirabilité particulière. À l’inverse des parties les plus visibles d’une tenue, un homme achète généralement un sous-vêtement parce qu’il en a besoin, pas parce qu’il en a envie.

Les créateurs de l’entreprise donc fait le pari qu’ils pourraient transformer le slip en objet de style et que des clients répondaient à cette proposition. Dans ce contexte, le slip deviendrait aussi désirable que n’importe quelle autre pièce de mode masculine.

Association d’images et repositionnement efficace

Le Slip Français a donc changé le positionnement de ce produit en en faisant un objet de convoitise. Le nom de la marque associe un signe de virilité masculine avec les symboles d’appartenance à un pays. Une fois que cette connexion est établie, le message humoristique de virilité patriotique est enrichi par sa significations réelle : qualité, haut de gamme, rareté, style, créativité, etc. Le fait de suggérer ces qualités par l’humour est d’ailleurs un facteur de connivence forte qui rapproche la   la marque de son public.

Toute startup n’a pas à résoudre un problème

Toute startup n’a donc pas vocation à résoudre un problème. Bon nombre de projets de startup ont innové par leur positionnement. Elles ont répondu de façon différente à un problème que d’autres entreprises adressaient déjà. Voici deux autres exemples de startups françaises qui ont innové en se différenciant.

backmarket.fr – Téléphones reconditionnés et consommation citoyenne

Ce service était auparavant proposé par les marques elles mêmes (Apple, Samsung, etc.), les distributeurs (FNAC) ou par des boutiques spécialisées.

En 2016, Backmarket s’est positionné sur ce marché déjà bien occupé. Sa proposition de valeur était très proche de celle des acteurs en place. Toute personne peut revendre son matériel d’occasion à la plateforme. Celle-ci procède au reconditionnement et propose des décotes oscillant entre 30% et 70% du prix neuf, en fonction de l’ancienneté du modèle.

Backmarket, a renforcé l’attrait des téléphones d’occasion en mettant en avant un reconditionnement de qualité associé à un message de conscience citoyenne. Sa communication est appuyée sur un blog entièrement centré sur la problématique de la consommation responsable de produits technologiques.

bonnegueule.fr, le Style n’est pas la Mode

La startup Bonnegueule était à l’origine un blog fondé en 2007 et dédié aux conseils vestimentaires masculins. Bonnegueule a également procédé repositionnement la question du style masculin sur un secteur en apparence saturé. Ses créateurs ont constaté que pour bien s’habiller, les hommes n’avaient pas d’autres options que de s’appuyer sur des magazines et des sites de mode masculine.

Or beaucoup d’hommes ont le souci de bien s’habiller sans nécessairement porter un vêtement de créateur.

Même si les magazines de mode masculine dispensaient de nombreux conseils vestimentaires, leur lien avec l’industrie de la mode et du prêt à porter brouillait leur crédibilité en la matière.

bonnegueule.fr a vite trouvé son public. A partir du moment où sa communauté s’est constituée autour du blog, l’entreprise a proposé des offres de coaching vestimentaire. A partir de 2012, elle a lancé ses propres collections qu’elle vend en ligne.

Equivalence nouvelles et complicité

Les propriétaires de ces startups ont donc répondu à des attentes non formulées. Elles l’on fait soit en créant des équivalences nouvelles, ou alors en cassant des équivalences établies.

  • Pour le slip français : Sous-vêtement fait en France = Sous-vêtement de qualité et stylé
  • Pour Backmarket.fr : Achat de produit technologique reconditionné = Consommation citoyenne et responsable
  • Pour Bonnegueule.fr : S’habiller avec style <> S’habiller à la mode et très cher

Si elles sont acceptées par le public, ces propositions nouvelles permettent de constituer rapidement une communauté et  d’adopter une communication plus innovante que celle de la concurrence.

Nous verrons dans le prochain article comment la carte d’empathie peut faciliter ce travail d’identification d’attentes non formulées.

Et maintenant ?

Le guide pour créer un produit désirableVous voulez aller plus loin? Utilisez ce guide pour vous assurer que le positionnement de votre produit ou de votre idée est correct.

Le guide “Créez un produit aussi désirable que celui d’une grande marque” vous permet d’identifier les aspirations de vos clients et d’y répondre. Téléchargez le ici.

 

Passer de l’idée au produit

Comment passer de l’idée au produit?  La plupart des créateurs de startups, du moins à leur début, pensent que leur idée correspondra au produit qu’ils livreront. C’est rarement le cas. S’obstiner à vouloir créer un produit tel qu’on l’a imaginé et le développant sans retours clients est généralement une garantie d’échec.

idée au produit Idée au produit - Des utilisateurs qui confirment leur intérêt pour mon idée de startup idée au produit idée au produitidée au produit idée au produit idée au produit idée au produit idée au produit idée au produit idée au produit idée au produit idée au produit idée au produit idée au produit idée au produit idée au produit idée au produit idée au produit

Pour aller plus loin :

idée au produit - En général, les startups engagent des moyens beaucoup trop tôt.

Au sujet des startups qui s’engagent trop tôt sur la question des moyens, lire cet article très intéressant paru sur Maddyness (même si je n’en partage pas toutes les conclusions). De même, cette article de 1001 startups qui évoque les échecs de startups en 2017. Il y est encore question de moyens engagés trop tôt.idée au produit Pour aller plus loin :

La confiance créative (Première partie)

La confiance créative est un livre de Tom et David Kelley (Editions Dunod, traduction Aude Simon et Anne Rametsi). C’est un des rares livres à traiter de la question de la créativité dans l’innovation d’entreprise.

Les auteurs définissent la confiance créative comme la croyance en sa propre capacité à changer le monde et à réaliser un projet que l’on a conçu. Avec ce livre, Tom et David Kelley présentent les méthodes qui permettent d’utiliser la confiance créative pour découvrir de nouvelles idées d’innovation et de les implémenter.

Introduction : La confiance créative au cœur de l’innovation

Si vous entendez les mots « créativité » ou « créatif », à quoi cela vous fait-il penser ?

Probablement à une capacité dont seules certaines personnes sont dotées. Pourtant, c’est une erreur. Le potentiel créatif n’est pas un privilège réservé exclusivement à certaines personnes comme les artistes, les écrivains ou les architectes.

Ce potentiel existe en chacun d’entre nous et nous pouvons l’appliquer dans tous les secteurs de nos vies. Les auteurs se sont attachés depuis trente ans à valoriser ce potentiel créatif après de leurs étudiants comme de leurs clients.

Les réussites qu’ils mettent en avant concernent des domaines aussi variés que le médical, le juridique, l’éducatif ou le scientifique.

La créativité au quotidien

En 2005, David Kelley a fondé la d.school (École de design associée à l’université de Stanford) pour enseigner une méthodologie d’innovation, basée sur cette confiance créative le « design thinking ».

Les sociétés des nouvelles technologies avaient déjà placé la créativité au centre de leur développement. L’objectif des frères Kelley était d’en faire un enseignement qui bénéficie aux individus et non pas au seul secteur des nouvelles technologies.

Leur école a ainsi accueilli de nombreuses personnes qui pensaient qu’elles étaient dépourvues de créativité. Une fois mises en situation, ces personnes ont redécouvert une capacité créative qu’elles avaient en fait mis en sommeil après leur enfance.

La confiance créative en action

Les auteurs soulignent qu’il faut passer à l’action pour atteindre la confiance créative. C’est cette action qui permettra de transcender les peurs, accepter l’incertitude et lâcher prise (soucis du contrôle). Cet état d’esprit correspond à ce que le chercheur en psychologie sociale Albert Bandura appelle l’autoefficacité.

Les individus ayant atteint l’autoefficacité se mettent en situation de débloquer leur énergie créative et de s’ouvrir de nouvelles possibilités.

Redécouvrir votre potentiel créatif

Avec la méthode de confiance créative, les auteurs nous proposent une manière de visualiser ce potentiel en nous et de l’exploiter pour trouver notre place dans le monde, sans anxiété ni doute.

 

Chapitre 1. RETOURNER

Du Design Thinking à la confiance créative

DOUG DIETZ est l’ingénieur qui a conçu les systèmes d’imagerie par résonance magnétique (IRM) de l’entreprise General Electrics. Ces machines sont reconnues comme les meilleures et équipent de nombreux hôpitaux.

L’ingénieur eut un jour l’occasion de voir une de ses machines fonctionner dans un de ces hôpitaux. Il demanda à l’opérateur de la machine s’il appréciait de travailler avec cette machine. L’opérateur lui répondit que ce n’était pas toujours le cas.

Les enfants qui devaient être scannés vivaient cette expérience comme quelque chose de traumatisant

Ces derniers devaient entrer plusieurs minutes dans un tube fermé pendant que la machine faisait des bruits inquiétants. Près de 80% des hôpitaux devaient endormir les enfants pour pouvoir les soumettre à un scanner.

L’ingénieur décida alors de proposer quelque chose de nouveau. Il partit d’abord faire un stage à la d.school de David Kelley où il découvrit la méthode de confiance créative et de design thinking qui y était enseignée.

Il vit en particulier les avantages de ce que les enseignants appellent sur place, la fertilisation croisée. C’est-à-dire le fait de rassembler des personnes de compétences diverses et de leur faire émettre de nombreuses idées qui seront revues plusieurs fois.

Un design de l’expérience qui ne traumatise pas les enfants

En revenant chez GE, Doug savait qu’il ne pourrait pas lancer un grand projet de recherche et de développement. Il se concentra donc sur un nouveau design de l’expérience de scan qui ne traumatiserait plus les enfants.

Doug et son équipe transformèrent l’ensemble de la salle de scan en un décor de fiction où l’enfant était la vedette. En plus du décor, l’opérateur jouait un script qui permettait à l’enfant de se sentir pleinement acteur de ce qui se passait.
Il donnait lui-même le départ de l’expérience. Le temps où il restait figé dans la machine lui était racontée comme étant une position magique qui lui permettait d’éliminer des ennemis.

Doug et son équipe ont pu mis ainsi en place différents décors : pirates, science-fiction, etc. Cette solution réduisit considérablement le nombre d’anesthésies et certains enfants demandaient même à revenir le lendemain.

Les trois facettes de l’innovation

Pour savoir si une technologie comme celle de Doug peut marcher, elle doit répondre à trois critères :

 

La confiance créative

Les trois facettes de l’innovation – La confiance créative de Tom et David Kelley

Le facteur technique

La technologie est centrale et elle peut être à la base d’une entreprise ou d’une activité prometteuse (en fait, rarement comme on peut le voir ici et ici).

Mais les auteurs nous rappellent que la technologie seule ne suffit pas, sinon nous jouerions tous avec des chiens robots.

La viabilité économique

Pour qu’une technologie puisse réellement contribuer à l’innovation, elle doit-être économiquement viable nous rappellent les auteurs. Sinon nous nous déplacerions tous en hélicoptère.

Le troisième facteur est humain

Les auteurs nous rappellent qu’il ne peut y avoir d’innovation sans compréhension des facteurs humains et des besoins profonds en particulier. C’est ce facteur qui offre les meilleures possibilités comme le démontre l’exemple de Doug et de ses IRM pour enfants.

Le design thinking est donc un processus d’innovation reposant sur l’équilibre de ces trois facteurs. Ce processus se déroule ensuite sur quatre étapes : l’inspiration, la synthèse, l’idéation/l’expérimentation, et l’implémentation.

Il doit de plus faire l’objet de nombreuses itérations avant son implémentation.

 

DÉFI CRÉATIF : L’innovation guidée par Le « Design »
  1. INSPIRATION
    Pour innover, il faut se confronter au monde. Les auteurs nous recommandent de sortir, de rencontrer des experts, de jouer le rôle de nos clients et de faire preuve d’empathie. Grâce à cette observation du monde, nous pouvons mieux comprendre tout ce qui entre en jeu dans le sujet que nous visons et penser de façon plus innovante.
  2. SYNTHÈSE
    Les auteurs ont mis en place une carte de l’empathie, c’est-à-dire une matrice (voir le défi créatif no 4, chapitre 7) permettant identifier différents types de solutions à un problème donné. Cette étape est fondamentale, car elle permet de définir le problème que l’on va traiter en priorité et le transformer en un cadre d’action en tentant de le reformuler. Les auteurs nous donnent ainsi l’exemple d’une mission où le sujet « comment réduire le temps d’attente des clients ? » a été reformulé en « comment réduire la perception du temps d’attente du client ?.
  3. IDÉATION ET EXPÉRIMENTATION
    Dans le cadre de la méthode, les idées les plus prometteuses font l’objet de prototypage approximatif et précoce pour permettre aux gens de réagir. L’idée est de tester plusieurs idées sans trop s’engager sur une voie en particulier. Les auteurs nous rappellent que tous les sujets peuvent être soumis à ce type de prototypage : modèles de livraison de vaccins transdermiques, simulation de l’enregistrement à l’hôtel, nouveaux systèmes de véhicules, etc.
  4. IMPLÉMENTATION
    La phase d’implémentation et de lancement d’un produit représente également une occasion d’apprendre et d’améliorer son idée de départ. De nombreuses sociétés lancent des produits dans le seul but d’apprendre.

 

Innover quotidiennement avec le design thinking

“Le design thinking repose sur notre capacité humaine naturelle à être intuitif, à reconnaître des modèles et à élaborer des idées à forte valeur émotionnelle autant que fonctionnelles.” – Tom et David Kelley

Tom et David Kelley nous rappellent ici qu’il peut être très risqué de tenter de résoudre la question de l’innovation en étant rationnel et analytique.

Esprit rationnel vs. esprit expérimental

Les frères Kelley opposent l’esprit rationnel et analytique à l’esprit expérimental habitué à tirer des enseignements directement des situations, grâce à l’empathie et au prototypage. Cette approche permet de découvrir de nouvelles visions et d’innover de façon durable.

Nourrir les penseurs créatifs

Les frères Kelley ont créée deux contextes créatifs différents.

IDEO est la société qui leur permet de créer des innovations pour leurs clients. Parallèlement à cette activité, ils ont créé la d.school à Stanford pour former des innovateurs. On assiste aux cours librement et les enseignements y sont dispensés sous forme de projet. Les étudiants de Stanford qui assistent aux cours de la d.school ont des parcours académiques différents et viennent du monde entier. Des cadres d’entreprise assistent également à ces cours.

Viser large avant de converger vers les idées

Le défi de la d.school est de permettre à ces gens de devenir des penseurs créatifs capables de se confronter à des questions ouvertes sans s’empresser d’y répondre.

Ils doivent commencer par « viser large » et identifier plusieurs approches possibles avant de converger vers des idées qui pourraient être mises en pratique.

A la d.school, les enseignants encouragent les élèves à observer pour comprendre plus profondément une situation. Ils peuvent par exemple analyser le comportement de personnes buvant un café pour identifier d’éventuels besoins latents et des occasions d’innover.

Le processus de design thinking permet aux idées d’émerger dans un environnement collaboratif.

Dans l’exemple du café, les auteurs nous citent ainsi deux idées suivantes envisagées lors d’un atelier : une cafetière pour chauffer le liquide à la température exacte souhaitée ou une touillette automatique qu’on lâche dans la tasse.

 

Un état d’esprit de développement

Pour révéler notre confiance créative, il faut accepter l’idée selon laquelle notre potentiel réel est inconnu et qu’il ne peut être connu. Cet état d’esprit nous permettra d’aller de l’avant et d’éviter de rester cloîtrés dans notre zone de confort, convaincus que nos capacités sont limitées et que les autres vont s’en apercevoir.

Ouvrir une brèche dans l’univers : Steve Jobs et l’intentionnalité

La confiance créative est donc un désir de guider sa vie plutôt que de se laisser porter. Dans les situations créatives, ce qui compte, c’est l’intention et le choix fait individuellement.

Pour les auteurs, c’est cette intentionnalité qui guidait Steve Jobs. Les auteurs ont travaillé avec lui sur le premier modèle de souris d’Apple en 1980.

Leur collaboration s’est poursuivie par la suite chez Apple, NeXT et Pixar. L’intentionnalité chez Jobs lui permettait de se fixer des objectifs qui dépassaient largement le cadre de ce qui était envisageable pour la plupart des membres de son entourage.

Jobs n’acceptait pas le monde tel qu’il était et il mettait en avant ce critère d’intentionnalité pour pousser les gens au-delà du cadre de pensée qui les limitait.

 

Chapitre 2. OSER

De la peur au courage

Le professeur Albert Bandura est un collègue de David Kelley à Stanford. Il parvient notamment à guérir de la phobie des serpents.

Cet apprentissage est en fait une étape dans un processus au sein duquel le sujet gagnera progressivement confiance en lui.

Ce processus progressif par lequel les femmes et les hommes parviennent à surmonter une situation de blocage pour agir dans le monde, Albert Bandura la nomme « l’auto-efficacité ».

L’autoefficacité permet de surmonter la peur de l’échec.

Le paradoxe de l’échec

Pour le professeur Dean Keith Simonton du campus de Davis en Californie, les artistes ou scientifiques que nous considérons comme des génies subissent de nombreux échecs mais persévèrent.

Selon lui, les profils les créatifs multiplient les expérimentations et intègrent l’échec dans leur parcours comme une occasion d’apprendre.

“La véritable mesure du succès est le nombre d’expériences qui peuvent être pratiquées en vingt-quatre heures.” – Thomas Edison

Le succès passe par plus d’échecs dans un cycle d’innovation

L’expérimentation doit démarrer au plus tôt pour permettre de recueillir le plus d’informations et d’effectuer corrections.

Les frères Wright et Thomas Edison sont les exemples les plus souvent cités d’inventeurs-expérimentateurs célèbres ayant fait de l’échec une stratégie d’apprentissage.

Même si plus d’un siècle nous sépare d’eux, leur démarche est toujours valable de nos jours.

La confiance créative de Tom et David Kelley

Photo : Light and movement – Derek Bruff – Licence Creative Commons – La confiance créative de Tom et David Kelley

Steelcase, un client célèbre de l’agence Idéo a ainsi pu renouveler la chaise d’école selon ce principe. Ses ingénieurs et designers se sont déplacés dans les écoles.

Les premiers prototypes étaient réalisés avec du papiers et des adhésifs. Puis, après de multiples ratés, ils ont pu mettre au point une chaise dotée d’un siège pivotant, d’une tablette ajustable, de roulettes maniables et d’un trépied pour le sac à dos.

Concevoir pour gagner en courage

Comme Albert Bandura, les frères Kelley augmentent graduellement les difficultés pour aider à surmonter la peur de réaliser certaines des meilleures idées.

En fait, l’acquisition de la confiance grâce à l’expérimentation progressive et l’ambiance de groupe facilitent souvent la mise en place de cet état d’esprit.

Le lien inéluctable entre l’échec et l’innovation est une leçon qui ne peut s’apprendre qu’en agissant. Nous donnons donc aux étudiants la chance d’échouer aussi rapidement que possible afin d’augmenter le temps d’apprentissage.Tom Kelley

Les frères Kelley recommandent également la méthode de John Cassidy, enseignant à la d.school. Pour apprendre à ses élèves à jongler plus vite, il leur demande d’abord de laisser tomber les balles. Il les aide ainsi à envisager l’échec comme une chose positive dès le départ. La méthode s’avère très efficace et les auteurs, sceptiques au départ, ont pu constater son efficacité.

L’optimisme urgent

Les auteurs prennent également l’exemple du jeu vidéo pour démontrer que l’expérimentation sans peur de l’échec permet un apprentissage rapide. Ce qui nous aide à avancer dans ces cas-là, c’est “l’espoir raisonnable de réussir” et “la possibilité d’une victoire épique”.

Ces deux mécanismes désinhibent le sujet de sa peur de l’échec et maintiennent sa motivation par la projection de la réussite, voire d’un grand succès et d’une reconnaissance. Comme un muscle que l’on entraînerait, notre aptitude à l’essai-erreur permet ainsi de renforcer notre élan créatif.

Dans son blog Metacool, Diego Rodriguez présente ces essais permanents comme une base de données d’expériences “dans laquelle on peut puiser pour effectuer des choix plus éclairés”.

Le droit d’échouer

Les auteurs ont également noté que les salariés d’entreprises avaient souvent l’envie de se lancer dans des projets d’entrepreneuriat innovant, mais qu’ils craignaient pour leur situation financière personnelle.

Avec la société HackFWD, ils ont tenté de rendre cette transition moins intimidante en mettant en place le « Geek Agreement ». Ce contrat permet à ces entrepreneurs de recevoir un montant proche de leur salaire actuel pendant un an. Ils peuvent ainsi disposer de temps pour avancer et se rapprocher de l’autonomie financière.

Embrasser ses échecs

Les frères Kelley nous présentent ici le cas de la société d’investissement Bessemer Investment Trust. Sur son site web, celle-ci présente aussi bien son portefeuille d’investissement réussi que celui des occasions manquées.

L’entreprise aurait pu investir dans PayPal, Fedex, Google à des moments où la valorisation de ces entreprises était très faible.

David Cowan, l’un des associés du cabinet s’est même arrangé pour ne pas croiser Larry Page et Serguei Brin au moment où ils mettaient au point Google. Une amie à lui leur louait son garage en guise de bureau et elle souhaitait qu’il les rencontre.

Il lui répondit : “Comment puis-je sortir de la maison sans passer à côté du garage? ». Pourtant cela n’empêche pas David Cowan d’être l’un des plus grands investisseurs en capital risque.

Un CV des échecs

L’éducatrice Tina Seelig, enseignante à Stanford demande à ses élèves de faire un CV de leurs erreurs. Elle affiche également le sien dans son livre What I wish I knew when I was 20. Elle encourage ainsi ses étudiants à donner à l’échec une valeur positive, ce qui leur permet de les assumer.

Le cheval d’argile

David Kelley se rappelle également que ses parents ont toujours permis aux deux frères de faire leurs expériences sans contrainte. Ces derniers ont donc pu s’exprimer librement, quitte à aller parfois trop loin.

Mais ils ne craignaient pas l’échec car leurs parents ne sanctionnaient pas leurs excès.

Toute personne a un potentiel créatif, mais pour certaines, cette créativité a été inhibée par un cadre familial ou social moins propice. Dans leurs interviews, les frères Kelley ont identifié que près d’un tiers des personnes parvenaient à se souvenir d’une “blessure créative”.

C’est-à-dire, un moment dans l’enfance où une création importante pour eux avait été tournée en dérision ou censurée par des proches.

Vous n’irez nulle part

Les vedettes nous font souvent part d’un enseignant ou d’un père qui considérait que leur “talent” ne les mènerait nulle part. Paul Mc Cartney et George Harrison avaient le même professeur de musique au lycée. Ce dernier n’a jamais décelé en eux le moindre talent musical au vu des notes qu’il leur donnait.

 

Se détacher des comparaisons

Pour pouvoir mettre en place son exploration créatrice, il faut renoncer à deux choses :

  • L’idée d’être conforme
  • Comparer son succès à celui des autres

Ces deux points limitent considérablement notre capacité à travailler individuellement ou en équipe et il faut s’en débarrasser au plus vite.

Nous ne parvenons pas à libérer notre confiance créative si nous tentons d’être comme il faut. De plus, dans le travail en groupe, nous avons besoin d’être capables de demander de l’aide et cette aide est fondamentale pour avancer.

 

Dessiner en confiance

De même, le dessin est un formidable atout pour la confiance créative. Pas nécessairement en tant qu’activité artistique mais plutôt comme support d’une activité visuelle. L’auteur suggère de dessiner à partir de formes de base et de franchir le cap progressivement en prenant confiance, comme on découvrirait une nouvelle activité sportive.

DEFI CREATIF : CROQUER DES PERSONNAGES
Formes élémentaires du dessin- La confiance créative de Tom et David Kelley

Formes élémentaires du dessin- La confiance créative de Tom et David Kelley

Dan Roam propose de se concentrer sur l’aspect communicatif du dessin et non pas sur son aspect artistique. Il propose trois manières de dessiner en fonction du message à faire passer.

  • Les dessins bâtons sont parfaits pour permettre de faire passer les émotions et les humeurs, surtout si la tête correspond au tiers du personnage
  • Les personnages dont le torse est rectangulaire permettent de représenter des postures
  • Les personnages représentés en tâche permettent de repérsenter rapidement des groupes et des relations.
La confiance créative

Petite catalogue de dessins faire passer ses messages – La confiance créative de Tom et David Kelley

Le rapport au dessin illustre bien cette question de la créativité. L’effort à réaliser n’est pas lié à la qualité du trait ou à une habileté. Il s’agit plutôt de ne pas s’autojuger.

 

De la peur à la joie

En surmontant ses peurs et en superposant la méthodologie du design thinking à nos connaissances, de nombreuses options s’ouvrent à nous.

Chapitre 3. DÉCLENCHER

De la page blanche à la révélation

4 étudiants de la d.school ont utilisé le design thinking pour transformer leur idée de départ en une entreprise. Rahul Panicker, Jane Chen, Linus Liang et Naganand Murty ont transformé leur projet classe en produit réel, l’Embrace Infant Warmer. Il s’agit d’un couffin chauffant pour nouveau né prématuré et dont le prix est 99% moins cher qu’une couveuse ordinaire.

Le cours de la d.school s’appelait : “Concevoir pour une accessibilité financière extrême”. Les quatre étudiants provenaient de filières technologiques ou management et n’avaient aucune connaissance en santé publique.

Une couveuse pour les pays en développement

Le projet de ces étudiants était de concevoir une couveuse pour nouveau-nés prématurés qui pourrait être utilisée dans les pays en développement. Le prix d’une couveuse ordinaire est de 20 000$ pièce en moyenne. La solution qui apparut logique était de réduire systématiquement le coût de conception en remplaçant les matériaux utilisés par des matériaux moins coûteux.

Mais cette solution ne permettait pas d’empathiser avec les utilisateurs ciblés et ce critère est fondamental dans l’innovation et la démarche du design thinking.

Un des étudiants parvint à obtenir un financement pour se rendre au Népal. Cette expérience fut déterminante pour la suite. Une fois sur place, il découvrit dans un hôpital urbain que ces derniers étaient bien équipés en couveuses, mais que ces dernières étaient peu utilisées.

L’inutilité de la couveuse pour les zones les plus reculées

Un médecin sur place lui expliqua quelles étaient les raisons de cette sous-utilisation. Les nouveau-nés qui en avaient le plus besoin ne naissaient pas en ville, mais à la campagne, là où les femmes restent actives le plus longtemps pendant leur grossesse.

L’inutilité de la couveuse n’était donc pas due à son prix à la faible mobilité du dispositif.

Redéfinir son cadre

L’étudiant rendit compte de sa découverte à ses collègues à Palo Alto. Deux options se présentaient:

  • soit travailler sur l’aide au développement et à l’accessibilité de ces zones en considérant que la question de la mortalité infantile en découlait.
  • soit imaginer une solution technique qui soit une alternative aux couveuses.

Conseillés par une enseignante, ils choisirent la seconde option, la plus difficile. C’est celle qui répondait le mieux au cadre posé par le cours : “accessibilité financière extrême”.

Ils redéfinirent leur questionnement initial (une couveuse) de manière plus large et sous forme de question :

« Comment pourrions-nous créer un appareil pour réchauffer les bébés qui pourraient donner aux parents dans les villages isolés une chance d’aider leurs enfants mourants à survivre ? »

Changer de cible et repenser le produit

Il faut souligner ici le changement de cible. Il ne s’agit plus d’adresser les hôpitaux, une zone géographique ou un pays entier, mais les parents “seulement”.

Après 4/5 cycles de prototypage, l’équipe mit au point un petit sac de couchage contenant des poches de paraffine : l’Embrace instant warmer. Une fois que celles-ci étaient chauffées, le dispositif pouvait conserver sa température pendant quatre heures.

Tester sur place

Les étudiants testèrent leur prototype sur place pendant deux ans. Dans l’état du Maharashtra en Inde, ils découvrirent que l’affichage des températures pouvait perturber la compréhension du fonctionnement de l’Embrace.

Ils remplacèrent cet indicateur par un simple signal OK vert qui s’allumait lorsque la bonne température était atteinte et un voyant rouge qui s’allumait lorsqu’il fallait réchauffer les poches de paraffine.

Le produit a connu un immense succès ces dernières années

Il répondait à un besoin ignoré ou mal appréhendé. Le produit est aujourd’hui vendu par la société Embrace et par General Electric et il est distribué dans dix pays.

Huit pistes pour cultiver l’étincelle créative

Tom et David Kelley nous donnent 8 pistes pour cultiver cette étincelle créative qui a permis à son groupe d’étudiants d’aller plus loin et de créer l’Embrace instant Warmer.

1. Choisissez la créativité

Les frères Kelley nous rappellent que toutes les personnes créatives ont décidé de l’être. Il ne s’agit donc pas d’une caractéristique innée, mais bien d’une décision.

En prenant cette décision, ils sont appris à :
– Redéfinir les problèmes de façon nouvelle afin de trouver des solutions.
– Prendre des risques calculés et accepter que l’échec fasse partie du processus d’innovation.
– Affronter les obstacles rencontrés lorsque nous sommes confrontés au statu quo.
– Tolérer l’ambiguïté lorsqu’ils ne sont pas certains d’être sur la bonne voie.
– Continuer à se développer intellectuellement plutôt que de laisser leurs compétences et leurs connaissances stagner”
Extrait de La confiance créative de Tom et David Kelley.

2. Penser comme un voyageur

Lorsque vous voyagez pour la première fois dans un pays, vous portez un regard neuf sur ce qui vous entoure. Il en est de même pour les situations créatives.

Il faut s’exposer à des expériences nouvelles qui remettent en cause notre façon habituelle de voir les choses.
 C’est ce qu’on fait les étudiants cités en exemple.

Ils n’ont pas cherché à s’appuyer sur leurs compétences d’étudiants en ingénierie ou en management. Ils sont partis à la découverte d’un sujet nouveau qui remettait la façon habituelle de voir les choses et sur lequel ils pouvaient eux-mêmes porter un regard neuf.

En adoptant cet état d’esprit du voyageur, nous pouvons remarquer de nombreux détails que nous aurions ignorés d’ordinaire.

Pour cela, la quantité est également importante. Ce qui rend les investisseurs en capital risque perspicaces, c’est le fait qu’ils sont constamment exposés à de nouvelles idées. Plus nous sommes exposés à des idées neuves et plus notre perspicacité s’aguerrit.

On peut multiplier les idées en consultant de nouveaux projets sur internet, en allant à des séminaires, en faisant des rencontres avec des personnes inspirantes, en lisant des blogs, en regardant des Ted talks, etc. Mais on peut aussi le faire en changeant régulièrement de chemin pour rentrer chez soi.

Pour cultiver cet état d’esprit, les équipes d’IDEO ont transformé l’un des murs de leur salle de repos en tableau noir. Ce dernier sert de forum informel dans lequel les salariés formulent leurs idées et plus généralement, ce qui leur passe par la tête.

On y trouve des questions et des dessins que certaines personnes n’hésitent pas à compléter.

DEFI CREATIF : CREER UN TABLEAU NOIR
Pour créer un tableau noir, les auteurs conseillent donc les étapes suivantes :

  • EXPÉRIMENTEZ AVANT DE DÉCIDER : Essayez plusieurs endroits et plusieurs tailles avant de décider. Les membres de l’agence ont d’ailleurs finalement opté pour de la peinture noire sur un mur.
  • CHOISISSEZ LE SUPPORT : tableau noir + craie ou tableau blanc + feutre, peu importe
  • SUSCITEZ LES IDÉES : il est important de commencer pour laisser les autres venir faire leurs propositions
  • RENOUVELEZ LE CONTENU : au bout de huit jours, effacer le contenu et recommencer.

3. Être attentif et détendu

Lorsque nous sommes détendus, notre esprit crée des liens entre des idées que nous dissocions d’ordinaire. Les personnes dont l’esprit vagabonde ont plus de facilité pour créer des liens inattendus qui peuvent se révéler particulièrement fructueux.

Deux moments sont propices pour exploiter cette détente :

Lorsque nous nous promenons. Nietzche ou Waldo Emerson étaient de grands promeneurs et Nietzche disait : “Seules les pensées que l’on a en marchant valent quelque chose.”

Au réveil, nous sommes dans un état mi-rêveur mi-alerte favorable aux idées nouvelles

3. Empathisez avec vos utilisateurs

Agissez en anthropologue, familiarisez-vous avec le quotidien de ceux que vous étudiez et fondez-vous dans l’environnement pour découvrir des opportunités ignorées.

C’est ce principe qu’a appliqué l’équipe d’Embrace lorsqu’ils ont quitté les hôpitaux du Népal pour aller à la rencontre des femmes de la campagne qui avaient perdu leurs enfants à la suite d’une naissance prématurée.

Les auteurs citent également l’exemple de la banque PNC. Elle a monté un panel et rencontré des jeunes pour créer un produit adapté à leur besoin.

Elle a ainsi lancé un portefeuille virtuel qui permettait à ces jeunes clients de consulter leurs soldes et d’être alertés avant le prélèvement de leurs factures. Le produit a connu un grand succès qui compensait largement le manque à gagner en agios.

David Kelley raconte que l’une de ses créations, la cuillère à glasse Zyliss, a pour point de départ l’observation d’un détail très anecdotique. David Kelley réalisa en observant un groupe de personnes mangeant de la glace que ceux-ci léchaient la cuillère avant de la déposer dans l’évier pour la laver.

C’est ainsi qu’il eut l’idée de créer cette cuillère à glace facile à lécher.

“l’observation de contradictions entre ce que l’on voit et ce à quoi l’on s’attend doit être considérée comme un signal qui nous engage à aller voir plus loin.” – David Kelley

5. 
Posez des questions, en commençant par « pourquoi »

Les questions commençant par pourquoi nous permettent de dépasser la superficialité d’un sujet.

Si vous voyez un photographe charger un film noir et blanc dans un vieil appareil moyen format des années 60, posez-lui d’abord la question du pourquoi plutôt que de souligner tout de suite qu’il s’agit de dispositifs anciens et dépassés. Vous découvrirez une intention que vous n’imaginiez pas et qui pourra peut-être être à l’origine d’une bonne idée.

Une des membres de l’agence Ideo a trouvé qu’il était encore plus intéressant de poser des questions ludiques, du type “si vous deviez convaincre un ami de lire ce livre, que lui diriez-vous?” plutôt que “pourquoi aimez-vous tant ce livre? »

Il faut également renoncer à l’idée que les clients vont vous dire précisément ce dont ils ont besoin. Ces derniers ne disposent ni des connaissances ni du vocabulaire pour vous le dire.

Les résultats obtenus seront plus intéressants si nous posons ce type de questions :

  • Montrez-moi : L’idéal dans ce cas est de se retrouver dans un lieu intéressant pour l’idée ou la situation que l’on veut tester. On demandera au sujet de nous montrer les éléments avec lesquels il interagit et nous annoterons nos constats et nos observations.
  • Dessinez-le : Lorsque les gens dessinent ou schématisent leur expérience, nous pouvons voir la façon dont ils se représentent les choses établissent des priorités.
  • Les 5 pourquoi : En les confrontant à 5 pourquoi successifs, nous encourageons les gens à réfléchir aux raisons implicites de leurs comportements. Il est important de creuser, même si l’on pense avoir compris.
  • Penser à voix haute : Demander à votre interlocuteur d’effectuer ses tâches à voix haute, en exprimant ce à quoi il pense. C’est un moyen très intéressant de découvrir les inquiétudes, les perceptions et les raisonnements de nos interlocuteurs.

6. Redéfinir ses hypothèses

Dans le cas de l’Embrace, le déplacement d’un des étudiants à l’étranger a permis de réaliser que l’hypothèse de départ était erronée. Le prix des couveuses n’était pas trop onéreux pour les hôpitaux du tiers-monde et celles-ci étaient même sous-utilisées.

David Kelley note que la meilleure façon de redéfinir un problème est de l’humaniser. C’est la seule façon d’identifier un problème réel. C’est d’ailleurs ce qu’a fait Doug Dietz lorsqu’il a tenté de réduire l’inquiétude que ses scanners provoquaient chez les enfants (cf. exemple plus haut).
Voici quelques techniques de redéfinition :

  • Prendre du recul par rapport aux solutions évidentes : mieux isoler la maison plutôt que de réinventer la tapette à souris.
  • Changer de point de vue : Prendre en compte l’opinion d’une personne dans une situation différente de la nôtre.
  • Découvrir le vrai problème : Se souvenir que les gens qui achètent des forets veulent en réalité des trous.
  • Redéfinir le problème : Contourner les résistances et les blocages mentaux en redéfinissant le problème à vos interlocuteurs (leur démontrer qu’une source est impure plutôt que leur en interdire l’accès sans explications).
  • Penser le contraire : Pensez simultanément aux possibilités d’une idée et aux blocages qu’elle peut provoquer. Cela permettra de trouver plus vite des solutions possibles.

Vous trouver ici un ensemble d’hypothèses de startup remises en cause provenant du livre d’Eric Ries.

7. S’appuyer sur un réseau de soutien créatif

Les sessions créatives sont beaucoup plus intéressantes et fécondes lorsque les idées circulent d’une personne à l’autre. Il faut donc mettre en œuvre des collaborations afin de nous permettre de puiser dans nos imaginations respectives et bâtir avec ceux qui partagent avec nous cette volonté créative.

8. Cultivez la sérendipité créative

L’invention de la gomme vulcanisée qui est utilisée pour les pneumatiques a pour origine un accident. Charles Goodyear avait en effet déversé par inadvertance un mélange de sulfure et de caoutchouc sur sa cuisinière. Si Goodyear a compris tout de suite la signification de cet accident, c’est qu’il cherchait depuis de nombreuses années un procédé scientifique pour stabiliser le caoutchouc.

L’histoire des sciences est remplie d’évènements de ce type présentés comme des accidents : la découverte de la pénicilline, celle du pacemaker, la saccharine, etc. Dans tous ces cas, les scientifiques à l’origine d’un accident ont compris que leur erreur était une trouvaille.

Tous avaient mené de nombreuses expériences jusqu’à cet heureux accident.

“Le hasard ne favorise que les esprits préparés.” – Louis Pasteur

 

Le livre

Les livres qu’il faut avoir lu avant de créer sa startup

Hello,

Voici un ensemble des lectures de grande valeur pour toute personne qui souhaite créer une entreprise innovante. Beaucoup de ces livres n’ont pas été traduites de l’anglais. Vous trouverez le lien vers le résumé détaillé du livre en fin de ligne. Il s’agit à chaque fois de résumés approfondis, parfois en deux parties.

Les résumés non encore disponibles seront publiés au fur et à mesure avec une priorité donnée aux publications en anglais.

 

Idée / Créativité

Innovation

Méthodes de création d’entreprise

Marketing

Financement

  • Get Backed d’Evan Baehr and Evan Loomis
  • Pitch anything d’Oren Klaff
  • The Art of Startup Fundraising: Pitching Investors, Negotiating the Deal, and Everything Else Entrepreneurs Need to Know

Développement personnel et Productivité

  • La 25ème heure de de Guillaume Declair, Bao Dinh et Jérôme Dumont
  • The subtle art of not giving a fuck de Mark Manson
  • The E-Myth Revisited de Michael E. Gerber
  • The Charisma Myth d’Olivia Fox Cabane
  • The Willpower Instinct de Kelly McGonigal
  • The Strength Finder de Tom Rath

Recruter, s’entourer

  • Who de Geoff Smart
  • The five dysfunctions of a team de Patrick Lencioni

Technologies

Philosophie / Connaissances générales

  • The construction of social reality de John R. Searle
  • Mythologies de Rolland Barthes
  • Les mots et les choses de Michel Foucault

 

Photo : Étudiant pour bibliothèque à la Bibliothèque centrale de l’Université Vrije, Keizersgracht 162, Amsterdam, 9 août 1955. Photo Ben van Meerendonk / AHF, collection IISH, Amsterdam – Licence Creative commons

 

The innovator’s dilemma – Deuxième partie

Dans la première partie du livre Le dilemme de l’innovateur (The innovator’s dilemma – Clayton Christensen – Non traduit), nous avons vu que les entreprises leaders rataient le moment de l’innovation disruptive. Elles laissaient la place à de nouveaux entrants et ces derniers en profitaient pour reconfigurer le marché.

Souvent, ces leaders faisaient le choix d’ignorer une innovation alors même qu’ils avaient découvert la technologie qui la permettait avant les autres.

 

Deuxième partie – Comment innover ?

Résumé de la première partie.

Seagate a créé le premier disque du de 3,5 pouces. Mais elle a fait le choix de ne pas le développer pour préserver ses marges dans les disques de 5,5 pouces. Les exemples de ces ratages sont nombreux. Kodak a inventé le premier appareil photo numérique. Mais elle a fait le choix de préserver ses marges dans l’argentique laissant la place à d’autres.

 

Le bon management et l’innovation de rupture

La première partie du livre The innovator’s dilemma nous révèle qu’il y a des raisons à ça. Ces raisons tiennent aux règles du bon management. En effet, la priorité pour un bon manager se résume en ces deux points :

  • Répondre aux besoins de ses clients
  • Allouer les ressources pour faire aboutir des projets

Or ces deux priorités empêchent toute possibilité d’innovation disruptive.

 

L’innovation incrémentale, un choix de court terme

Pourtant, les managers sont convaincus d’innover, et en toute bonne foi. Mais ils ne font qu’améliorer les possibilités de produits existants.

Certes, il s’agit bien d’innovation, mais une innovation incrémental.

Celle-ci permet de se maintenir dans la course. Ainsi, le produit se développe. Progressivement, il dépasse la performance nécessaire au client. Son prix aussi finit par augmenter et l’entreprise augmente ses marges.

 

Dans l’entreprise, des ingénieurs proposent une technologie de rupture

Très souvent, c’est à ce moment que des ingénieurs de l’entreprise proposent une alternative technologique. Elle consiste à développer une technologie plus compact, moins qualitatif ou performant et offrant des marges plus faibles. Il possède deux atouts néanmoins :

  • D’abord, à court terme, il peut répondre à des besoins d’une clientèle de niche qui trouve l’offre existante trop chère
  • Ensuite, sa marge d’amélioration technique à long terme est très élevée

 

Les manager refusent d’investir dans la technologie de rupture

Le dilemme de l'innovateur - Clayton Christensen

La courbe en S de l’innovation disruptive – Le dilemme de l’innovateur – Clayton Christensen

Pourtant, les managers renoncent à mettre cette innovation sur le marché. En effet, son lancement s’oppose aux deux règles du bon management édictées plus haut :

  • La nouvelle technologie ne répond pas aux besoin des clients de l’entreprise et ces derniers la rejettent
  • La nouvelle technologie ne garantit pas que les ressources sont correctement allouées et que le projet aboutira

Elle préfère donc investir de plus en plus lourdement dans des technologies qui atteignent pourtant leur limite physiques (cf. schéma de la courbe en S plus haut).

 

Faire réussir l’innovation de rupture

Pour faire réussir l’innovation de rupture, il faut donc dépasser ce que l’auteur appelle modèle de l’échec.

La deuxième partie de The innovator’s dilemma va présenter les entreprises qui ont trouvé une alternative au modèle de l’échec.

 

Chapitre 5. Innover en cherchant les clients à qui la nouvelle technologie va apporter quelque chose

L’exemple de l’industrie du disque du nous montre qu’il est très difficile pour une entreprise leader d’innover en ciblant un autre segment de clientèle. Pourtant certains managers comprennent qu’ils doivent partir à la recherche de nouveaux clients.

Mais les organisations sont bâties de façon telle qu’il est souvent impossible pour ce manager d’aller au bout de son projet.

Généralement, les entreprises sont organisées pour répondre aux contraintes de son environnement. Elle ne dévient donc pas de leur trajectoire.

 

MANAGER POUR LE LONG TERME

Deux options se présentent alors au manager :

  • Convaincre tout le monde dans l’entreprise de l’importance de l’innovation de rupture. Ainsi, il devra défendre le fait que l’entreprise poursuive une option rejetée par les clients, qui contribue faiblement au chiffre d’affaire et qui dégrade la marge.
  • Créer une une organisation indépendante de l’entreprise établie. Ainsi, celle-ci pourra partir à la recherche de son segment de clientèle et s’adapter aux contraintes propres à ce marché (faible marges, qualité, etc.).

La deuxième option est de loin celle qui garantit les meilleurs résultats comme le prouvent les exemples que nous présenterons plus bas.

 

INNOVATION ET ALLOCATION DE RESSOURCES

Associé au désintérêt des clients établis, le système d’allocation de ressources freine l’innovation de rupture chez les entreprises leaders.

  • Les projets d’innovation sont souvent proposés par des opérationnels et les ingénieurs. Mais ils peinent à mettre en avant les bénéfices qu’ils apporteront à l’entreprise et à ses clients.
  • Les managers (middle management) tendent à choisir les projets qui offrent les plus grandes chances de réussite pour leur carrière personnelle. C’est ainsi qu’ils écartent les propositions des opérationnels et des ingénieurs.

Donc, lorsque des projets d’innovation de rupture arrivent, ces entreprises doivent

  • D’abord, résister à la tentation de les faire valider par leur clients existants
  • Puis mettre en place un nouveau système d’allocation de ressources. Celui-ci doit permettre aux projets de rupture de ne pas entrer en concurrence avec les projets d’innovation incrémentale.

 

DISRUPTION RÉUSSIE DANS L’INDUSTRIE DU DISQUE DUR

Nous avons vue dans la première partie de The innovator’s dilemma que ce marché a été confronté à de nombreuses disruption (Schéma 1.7 ici bas).

Le dilemme de l'innovateur

Schéma 1.7 – Évolution du marché du disque dur – Le dilemme de l’innovateur – Clayton Christensen

Voici trois exemples où la disruption a été correctement anticipée par le management.

Dans les deux premiers cas, les managers ont mis en place une organisation à l’extérieur de l’entreprise. C’est elle qui a été chargée de développer la technologie de rupture.

Dans le troisième cas, le manager a organisé la disruption à l’intérieur de l’entreprise. Toutefois, ce travail l’a mené à l’épuisement.

 

Quantum et le disque dur de 3,5 pouces

Au milieu des années 80, des employés de Quantum estimèrent que les disques dur de 3,5 pouces pouvaient avoir un potentiel de marché. Ils pensaient notamment que des utilisateurs de PC s’en serviraient pour augmenter les capacités de stockage de leurs ordinateurs.

Ils décidèrent donc de créer une startup et de quitter Quantum. Voyant leur départ comme une opportunité, leur employeur leur offrit de financer leur projet. En échange, il leur achèterait 80% des parts de la nouvelle société. Les employés acceptèrent. Plus Development Corporation fût ainsi créée.

La société était complètement autonome. Non seulement elle disposait de son propre management, mais elle gérait aussi ses clients, ses revenus et ses coûts. Plus devint finalement très rentable.

Alors que les ventes de disques 8 pouces devenaient insignifiantes, Quantum décida d’absorber Plus. Les disques durs 3,5 pouces de la petite société devinrent ainsi une ligne de produit de Quantum. Elle disposait d’une avance dans un marché en pleine explosion grâce notamment au développement du PC portable.

Par conséquent, Quantum décida d’adopter la même stratégie pour développer le disque dur de 2,5 pouces. Là aussi, les résultats fûrent très positifs. En 1994, l’entreprise devint ainsi le premier producteur mondial de disques durs.

 

Control Data in Oklahoma Control Data Corporation (CDC)

Control Data est une des société historiques du marché du disque dur. Elle contribua d’ailleurs fortement à la création de cette industrie. Entre 1965 et 1982, ses parts de marché oscillaient entre 55% et 62%.

Pourtant, à la fin des années 70, l’entreprise passa à côté du développement du disque dur de 8 pouces. Elle produisit bien un modèle de 8 pouces mais avec trois ans de retard. Son modèle ne fût vendu qu’à ses clients et sa part de marché s’effondra. Les managers de CDC décidèrent dès lors de se maintenir dans la course aux prochaines innovations.

C’est ainsi que lorsque Seagate lança le disque dur de 5,25 pouces, CDC décida de se lancer elle aussi au plus vite. Elle créa donc une filiale en Oklahoma chargée de développer ce produit auprès du bon segment de clientèle.

CDC devint ainsi le deuxième fabricant de disque dur 5,25 pouces avec 20% du marché.

Micropolis: une transition gérée par le management

Micropolis fût créée en 1978. Elle devint très vite un acteur de référence du marché du disque dur de 8 pouces. En 1982, le PDG de l’entreprise Stuart Mabon anticipa intuitivement la trajectoire de plafonnement technologique décrite plus haut dans le schéma 1.7.

Il décida d’organiser à l’intérieur de l’entreprise le développement du disque de 5,25 pouces. Il du effectuer un effort démesuré pour s’assurer que les ressources nécessaires au projet ne soient pas cannibalisées par l’activité historique. Cela lui prit 100% de son temps et le projet fût très difficile à mener.

Schéma 5.1 – Transition technologique et position de marché chez Micropolis – Le dilemme de l’innovateur – Clayton Christensen

Avec cette transition, Micropolis dût renoncer aux besoins des clients établis. Micropolis organisa ainsi le remplacement progressif de ses anciens clients par un nouveau segment client (Schéma 5.1). L’adaptation fût longue, compliquée et épuisante. Mais elle aboutit à un résultat positif. Micropolis resta un acteur majeur de l’industrie du disque dur malgré la disruption du marché.

Avec ces trois exemples, nous voyons que l’argument selon lesquels les managers n’ont pas la possibilité gérer une transition vers une technologie de rupture est tout simplement faux.

 

IBM ET L’ORDINATEUR PERSONNEL (PC)

Le dilemme de l'innovateur

Publicité IBM PC des années 70

La disruption dans l’industrie du disque dur est très dépendante de celle du marché du PC. En fait, les deux industriens partagent la même value network.

Pour rappel, la value network est un concept crée par Clayton Christensen. Il définit l’environnement dans lequel un acteur économique perçoit la valeur des biens achetés et produits. Par exemple, le client d’un mainframe achète un produit déterminé par une marge de 60%. Les fournisseurs de composants pour ce marché (dont les fabricants de disque dur) ajusteront en conséquence leur marge pour s’en rapprocher.

Ainsi, le marché du mainframe et celui du disque dur en 1960 faisaient partie du même value network. En conséquence, la marge réalisée pour un disque dur était presque la même que celle d’un assembleur mainframe comme IBM.

L’émergence de l’ordinateur personnel a constitué une disruption dans le marché des ordinateurs. Pour IBM et ses concurrents du mainframe, leurs clients n’avaient pas l’utilité de ce type de produit.

Ainsi, le PC fut donc ignoré pendant des années, ce qui permit l’arrivée de nouveaux acteurs (Digital Equipment, Nixdorf, Wang, etc.).
Puis les performances des PC atteignirent les exigences de certains de ses clients du mainframe. IBM décida alors de lancer sa propre gamme de PC.

Elle le fit au moment où nouvelle génération de PC, les mini PC, venait d’arriver sur le marché. Les nouveaux entrants étaient Apple, Commodore, Tandy et donc IBM.

IBM (comme Apple) reproduisit l’opération au milieu des années 80 avec les ordinateurs de bureau. Puis de nouveau au début des années 90 avec l’ordinateur portable. A chaque fois, elle attendit que la nouvelle technologie soit en mesure de répondre au besoin de ses clients.

Ces exemples tendraient à démontrer qu’il suffit juste d’attendre qu’une technologie murissent pour la proposer à ses clients.

Pourtant, ce succès doit être relativisé. En effet, aucun autres acteurs du mainframe n’a réussi dans le marché du PC.

D’ailleurs, pour réussir IBM appliqua la même méthode que Quantum et Control Data. Elle ouvrit une filiale en Floride loin de son siège New-Yorkais, IBM PC. Cette filiale avait non seulement la liberté de choisir ses niveaux de marge, mais elle pouvait aussi démarcher ses propres clients. Ainsi, elle entrait parfois en concurrence avec la branche mainframe.

 

KRESGE, WOOLWORTH ET LE SECTEUR DE LA DISTRIBUTION

Le secteur de la distribution a lui aussi connu des innovations majeures. Au milieu des années 50, Korvette fût le premier à pratiquer le discount à New-York.

Avec des prix plus bas de 20 à 40% que ses concurrents, il imposa le format de distribution que nous connaissons aujourd’hui. C’est-à-dire : distribution de grandes marques, mise à disposition en rayon, absence de vendeurs, etc. Korvette avait également défini sa cible. Les épouses des cols bleus.

Puis de nouveaux acteurs apparurent à la fin des années 50. Kresge, Woolworth et Dayton Hudson perfectionnèrent le modèle du discount de Corvette en inventant la distribution de masse. Celle-ci reposait sur un rotation de stock élevée et un très grand nombre de magasins. De leur côté, les grands distributeurs généralistes (dont Sears) décidèrent d’ignorer le discount.

Kresge recruta un nouveau directeur général en 1959, Harry Cunningham. Sa mission était de transformer Kresge en une puissante chaîne de discount. Cunningham revit entièrement l’organisation et remplaça de nombreuses personnes. Il décida de fermer près de 10% des magasins généralistes chaque année. En quelques années, l’enseigne s’était entièrement tournée vers le discount.

Woolworth pour sa part décida de ne pas perturber ses activités historiques. Elle créa donc une activité, Woolco pour développer ce segment de marché. Elle décida de conserver les mêmes équipes pour ses deux enseignes. Celles-ci étaient managées au niveau régional.

Malheureusement, elle ne pût maintenir au sein du groupe deux modèles aussi différentes. Très vite, les marges de l’activité discount augmentèrent et la rotation des stocks diminua. Woolco ne parvint donc pas à s’imposer dans le discount et le dernier magasin ferma ses portes en 1982.

 

LA SURVIE PAR LE SUICIDE, HEWLETT PACKARD ET L’IMPRESSION JET D’ENCRE

Une société peut aussi faire le choix de développer une filiale qui fera disparaître à terme une autre filiale pourtant rentable.

C’est ce choix qu’a fait HP dans le domaine de l’impression. Au début des années 80, HP devint l’un des leaders mondiaux dans le secteur de l’impression Laser. Durant ces années, elle ne cessa d’améliorer cette technologie et devint leader du marché.

Lorsque la technologie jet d’encre fit son apparition, il y eut un débat au sein d’HP. Certains soutenaient que la technologie jet d’encre ne pourrait jamais atteindre la résolution d’une impression laser. Elle ne justifiait donc pas d’investissement. D’autres soutenaient que le prix très bas de la technologie jet d’encre devait permettre d’adresser des clients qui ne pouvaient pas payer pour le prix d’une imprimante laser. A leurs yeux, HP se devait de se positionner sur ce marché.

Les dirigeant d’HP avaient réalisé que l’imprimante jet d’encre était une technologie de rupture par rapport à l’impression laser.

Ils décidèrent donc de laisser sa filiale de Boise dans l’Idaho poursuivre dans l’impression laser. En parallèle, ils créèrent une nouvelle filiale à Vancouver dans l’état de Washington. Celle-ci était complètement autonome. Sa seule mission était de réussir à faire de l’impression jet d’encre un succès.

Dans un premier temps, HP (Vancouver) répondit aux besoins de clients ignorés par les fabricants d’imprimantes lasers. Il s’agissait d’étudiants, d’enseignants et certains particuliers. Puis, dès la fin des années 90, la technologie s’améliora au point de répondre aux besoins de productivité de nombreux professionnels.

Les imprimantes laser, plus grandes et encombrantes devinrent une activité marginale pour HP au point d’être finalement absorbées par la branche Jet d’encre de Vancouver.

Chapitre 6. Adapter l’organisation à la taille du marché ciblé

Deux points sont essentiels lorsqu’une entreprise est confrontée à une innovation disruptive :

  • D’abord, la quête du leadership. Les entreprises qui arrivent les premières à installer la technologie disruptive en retirent les premiers les bénéfices.
  • Par ailleurs, il convient de créer une organisation adaptée aux petites opportunités d’un secteur émergent. En effet, les petits marchés de l’innovation disruptive ne pourront jamais satisfaire les besoins de croissance à court terme des grandes entreprises.

 

LES PIONNIERS ESSUIENT-ILS RÉELLEMENT LES PLÂTRES ?

Généralement, une entreprise confrontée à une innovation de rupture hésite à investir pour se positionner parmi les premiers entrants. L’autre option, celle d’attendre, peut paraître plus raisonnable à ses dirigeants.

Quelques rares exemples dans l’industrie du disque dur peuvent laisser que la deuxième option est préférable. Pourtant, dans la plupart des cas, les pionniers sont ceux qui retirent l’essentiel des bénéfices d’une technologie disruptive.

L’étude menée par Clayton Christensen dans The innovator’s dilemma révèle ainsi que 37% des primo-entrants parvenaient à dépasser les 100 millions de $ de chiffre d’affaire dans les deux ans d’existence d’une nouvelle technologie. Ce chiffre tombe à 20% pour les entreprises qui s’y prennent plus tard.

D’autant plus que si l’on regroupe ces chiffres à l’échelle de l’ensemble de l’industrie, l’écart devient vertigineux. Les sociétés qui se sont engagées dans une technologie disruptive ont cumulé 62 milliards de dollars de revenu généré par cette technologie. Pour celles qui ont attendu, ce chiffre est de 3,3 milliards.

Les entreprises qui tardent à rentrer sur le marché se condamnent donc à des positions marginales, voir à une disparition.

L’étude de Clayton Christensen révèle également qu’une innovation technologique incrémentale ne génère pas d’avantages.

Par exemple, le remplacement du silicium par la bande magnétique dans l’industrie du disque dur a été particulièrement coûteux pour IBM ou Memorex. Pourtant, il n’a généré aucun revenu supplémentaire. Pas plus qu’il n’a amélioré la position de ces entreprises sur le marché.

 

LE LEADERSHIP ET LES GRANDES SOCIETES DANS DES CONTEXTES D’INNOVATION DISRUPTIVE

Attardons nous maintenant sur le cas des grandes entreprises. Nous avons vu dans la première partie que ces dernières étaient particulièrement réticentes à s’engager dans des innovations disruptives. Nous avons vu plus haut avec le cas d’HP ou Micropolis que certaines grandes entreprises établies y parvenaient parfois.

Mais quel sont ces stratégie d’entrée adoptent-elles en général ? Clayton Christensen en identifie trois :

  • Elles essaient d’influencer l’acquisition d’une technologie disruptive. Elles tentent d’influencer le marché pour qu’il atteigne une taille critique et que leurs produits puissent y être vendus ;
  • Elles patientent jusqu’à ce que le marché ait atteint sa taille critique puis elles y commercialisent leur produit ;
  • Elles sous-traitent la commercialisation d’une technologie disruptive à une filiale.

 

Etude N° 1 : Influencer l’acquisition d’une technologie disruptive

En 1990, après deux décennies d’existence, Apple était à la recherche de nouveaux marchés.

Le marché des assistants personnels lui sembla être un bon segment à développer. L’entreprise lança donc Newton, un assistant particulièrement bien conçu et facile à manipuler.

Elle investit de fortes sommes d’argent dans le développement de ce produit et elle le promut de façon agressive. 140 000 Newton furent vendus les deux premières années. Le chiffre était très faible au vu des sommes investies et la plupart des analystes présentèrent le Newton comme un échec. Son système de reconnaissance d’écriture était décevant et ses fonctions de communications trop chères.

Le produit était pourtant bien disruptif dans la mesure où il est parvenu à créer son marché. Mais pour le marché et les dirigeants d’Apple les 43 000 ventes de la première année furent perçus comme un échec. Or à l’échelle d’un marché disruptif, il s’agit au contraire d’une réussite. D’autres acteurs tel Palm ou HP réussirent à s’imposer plus tard sur ce marché.

Le principe de l’innovation de rupture est l’essai – erreur. L’histoire d’Apple est d’ailleurs très significative. L’Apple 1 fût un échec, la première version de l’Apple II aussi. Ce n’est que la seconde version de l’Apple II [H11501] qui parvint à trouver une clientèle. Par la suite, les premières générations de Macintosh échouèrent également avant qu’Apple ne trouve la bonne formule.

Avec Newton, Apple tenta donc de raccourcir ce délai d’apprentissage. Elle décida qu’elle savait parfaitement ce que les clients attendaient d’un assistant personnel et que ces derniers aussi. Les investissements massifs imposèrent la nécessité d’un retour sur investissement à court terme. Or un tel produit nécessitait une phase d’apprentissage comme toute innovation de rupture.

C’est donc pour cela que ces innovations requièrent des organisations de petite taille.

 

Étude N°2 : Attendre que le marché soit assez large pour être intéressant

C’est la startégie attentiste. Clayton Christensen a démontré plus haut à quel point cette stratégie est peu bénéfique. Les deux exemples suivants illustrent sa démonstration.

En 1984, Seagate et d’autres fimes commercialisèrent le disque dur de 5,25 pouces. Cette technologie disruptive avait été mise au point en 1983. Elle mis donc à peu près un an à s’imposer sur le marché du PC. En effet, cette durée est néssaire pour mettre au point un modèle ordinateur à partir de composants déjà commercialisés sur le marché. Une autre société, Priam l’avait développé en 1982, mais c’était trop tôt et la société ne parvint pas à l’imposer.

Seagate Technology fût le second a mettre au point un modèle 3,5 pouces en 1984. Les analystes s’attendaient à ce que le modèle soit commercialisé en 1986, au moment où le marché deviendrait intéressant. Le modèle ne fût lancé qu’en 1987, à un moment où ce marché devenait intéressant.

Toutefois, en 1991, malgré des ventes significatives de disques 3,5 pouces, Seagate ne vendait toujours pas ses disques dur à des fabricants d’ordinateurs portables. Ses ventes de 3,5 pouces étaient destinées au marché du PC fixe où le disque de 5,25 pouces déclinait. En d’autres termes, Seagate canibalisait son marché historique.

Pourquoi ?

Nous avons vu dans la première partie du livre comment les ingénieurs de Seagate qui développère le 3,5 pouces sont partis fonder Conner peripherals. L’un des dirigeants de l’entreprise expliqua plus tard les raisons de leur succès et celui de l’échec de Seagate.

« Nos prédécesseurs concevaient le disque dur. Puis ils le fabriquaient et finalement, ils le vendaient. Nous avons changé ça. Nous vendons d’abord les disques, puis nous les concevons et enfin nous les construisons. […]. Seagate n’a jamais été en mesure de comprendre comment fonctionnait le marché de l’ordinateur portable. »

En d’autres termes, Conner a établi un standard de conception du disque de dur pour le marché du Pc portable. Elle obtenait ainsi un maximum d’informations et de mettre au point son produit avant de lancer la production. [Ce modèle de production s’est ensuite généralisé à d’autres industries comme nous l’avons vu dans le cas du Lean Startup]

 

Etude n°3 : Petites opportunites pour petites organisations

Comme pour HP et IBM, une société établie peut faire le choix de créer une nouvelle filiale pour développer une innovation disruptive. Ou comme dans le cas de Quantum (Plus) et Compaq (Conner), elles peuvent acquérir des parts dans une startup.

Dans les deux cas, il s’agit d’éviter de rencontrer les difficultés qui ont été celles de Micropolis lors de la mise au point du disque de 5,25 pouces.

A la fin des années 70 Control Data passa à côté du marché du 8 pouces. En conséquence, elle décida d’envoyer une équipe indépendante à Minnéapolis pour développer le disque de 5,25 pouces. Voici comment un de ses dirigeants de l’époque présente cette décision :

“Nous avions besoin d’une organisation qui puisse être excitée à l’idée d’avoir une commande de 50 000$”.

Prenons un exemple d’innovation externalisée maintenant. En 1968, les systèmes de contrôle de refroidissement moteurs sur le marché étaient encore tous mécaniques. Ces systèmes étaient utilisés pour régler la température des moteurs dans les systèmes de climatisation, les pompes industriels, etc.

Allen Bradley était justement le leader dans la production des moteurs pour ces produits. La société produisait aussi les composants électromécaniques de refroidissement qui leur étaient nécessaires.

Cette année là, Modicon, une startup lança un modèle de contrôle de refroidissement électronique. Ce système était beaucoup moins puissant qu’un système mécanique. Il offrait néanmoins une flexibilité plus grande.

En 1969, les dirigeants d’AB pressentirent la fin prochaine des contrôleurs mécaniques. Ils décidèrent donc d’investir dans une startup concurrente de Modicon, Information Instruments, Inc. AB pût ainsi se positionner sur ce marché disruptif.

Dans le même temps, Westinghouse et General Electric ignorèrent l’innovation en question. Pourtant, ils étaient leaders dans la production de micro-composants électroniques et disposaient donc d’un avantage technologique.

AB n’avait pas cette expertise mais les progrès rapides de sa startup lui donnèrent raison. En quelques années, les contrôleurs électroniques d’Information Instruments, Inc. remplacèrent ses modèles électromécaniques.

EN RESUME

Les managers ne sont pas obligés de rechercher une croissance durable avec de l’innovation disruptive. Ils peuvent continuer à améliorer leur technologie et rester forts et compétitifs.

Mais le retours sur investissement d’un primo entrant sur une technologie disruptive peut-être énorme. Pour elles, l’enjeu sera de s’adapter aux conditions d’un marché émergent. Ce derniers sera caractérisé par des petits volumes et de faibles marges.

La politique d’innovation qu’elle adoptera sera déterminante. Celle-ci doit se caractériser par :

  • De petites organisations de type Startup
  • Dissociées du métier historique de l’entreprise et basées à un autre endroit
  • Ayant leur propres fournisseurs et démarchant leurs propres clients, y compris ceux du métier historique
  • Procédant en mode essai-erreur pour retirer le plus d’enseignement
  • Vendant leur produit à des clients early adopters avant d’en industrialiser la production.

Chapitre 7. Découvrir les marchés nouveaux et émergents

 

Dans le contexte de l’innovation incrémentale, il est assez simple d’évaluer les besoins d’un marché. En effet, les clients et les compétiteurs sont connus.

Les frais de recherche et développement, les études et le marketing peuvent ainsi être estimés sur des bases plutôt fiables.

Mais dans le cas d’une innovation de rupture, il est impossible de faire ce type d’estimation.

Dans ce chapitre, nous verrons comment les experts de l’industrie du disque dur ont fait pour identifier des opportunités. Ces derniers ont eu néanmoins eu énormément de mal à évaluer la taille de ces nouveaux marchés dans des contextes disruptifs.

 

PRÉVISIONS DANS DES CONTEXTES DISRUPTIFS VS PREVISIONS DANS DES CONTEXTES D’INNOVATION INCRÉMENTALE

L’industrie du disque dur est très riche en données. Un rapport mensuel détaillé est ainsi publié par un syndicat regroupant l’ensemble des fabricants le Disk/Trend. Le rapport publié par le Disk/Trend se montre souvent très fiable lorsqu’il s’agit de prévoir comment une technologie existante va évoluer.

Ses méthodes de prévisions se sont par contre avérées inefficaces lorsqu’il s’est agi d’anticiper sur l’arrivé d’une technologie disruptive.

 

À LA RECHERCHE D’UN MARCHÉ POUR LE DISQUE DUR D’1,3 POUCES : L’EXEMPLE DU KITTYHAWK D’HP

HP s’est ainsi retrouvée prise au dépourvu au moment de lancer son disque de dur de 1,3 pouces, le Kittyhawk. Le plus petit modèle de disque disponible sur le marché était le 3,5 pouces. Fallait-il baser ses prévisions sur l’apparition et le développement de ce modèle ou trouver une autre méthode ?

HP choisit la première option. Le marché des assistants personnels commençait à émerger et les dirigeants d’HP pensèrent que le Kittyhawk y trouverait naturellement sa place.

Un cabinet d’étude confirma leur pressentiment et établit les prévisions. Ainsi, les managers de la société développèrent des partenariats avec les principaux acteurs de l’industrie : Motorola, ATT, IBM, Apple, Microsoft, Intel, NCR. Eux aussi avaient misé sur le marché des assistants personnels.

Le Kittyhawk fût donc développé et mis sur le marché en 12 mois. C’était un produit haut de gamme grâce notamment à un capteur d’impact. Il pouvait par exemple encaisser des chutes sans s’abîmer. Son prix était donc élevé, 250 $ la pièce.

Mais le marché du PDA ne tint pas ses promesses et le Kittyhawk ne réalisa qu’une petite fraction des ventes attendues. Plus inattendu, l’essentiel des ventes était effectué au Japon auprès de fabricants de micro-caisses enregistreuses, de vidéo de surveillance et de scanners industriels. Ces clients n’avaient pas été anticipés par les prévisions d’HP.

Après deux ans d’existence, l’industrie du jeu vidéo montra son intérêt pour le produit. Mais elle demanda des prix nettement plus bas que ceux d’HP.

En réalité, HP avait conçu le Kittyhawk comme une technologie incrémentale. Elle pensait avoir les mêmes clients et les mêmes fournisseurs que ceux de ses disques 3,5 pouces. Elle misait sur la miniaturisation des terminaux avec un passage du PC portable au PDA, mais sans changement de value network.

Il s’agissait en réalité d’un produit disruptif et le segment du jeu vidéo aurait pu être prometteur. Mais le produit était cinq fois trop cher pour ce segment.

Plutôt que de pivoter pour répondre au besoin de cette industrie, le management considéra que trop d’argent avait été investi. Le Kittyhawk fût donc retiré du marché fin 1994.

Retrospectivement, les managers de HP considèrent que leur plus grosse erreur fût de considérer tout le long du projet que leurs hypothèses étaient bonnes.

HP n’est pas la seule entreprises à avoir commis cette erreur comme nous le montre ici bas l’exemple de Honda.

 

COMMENT HONDA A CONQUIS LE MARCHE AMÉRICAIN DE LA MOTO

La réussite de Honda sur le marché de la moto en Europe et aux Etats-Unis est souvent présentée comme une réussite. Pourtant avant d’y arriver l’entreprise japonaise a connu de nombreuses déconvenues.

Honda se mit à produire des motos au Japon à la fin de la deuxième guerre mondiale. Dans un contexte de grande pauvreté et de destructions, ses motos étaient économiques et robustes. Elles permettaient d’assurer de petit déplacement. Ses ventes augmentèrent de 1 200 unités en 1949 à 285 000 unités en 1959.

Au Japon, un des modèles de la marque était la Honda Supercub. Ce modèle était un tout terrain qui était utilisé notamment pour effectuer des livraisons sur les routes abîmées du Japon d’après-guerre.

En 1959, les dirigeants de l’entreprise décidèrent de s’installer aux Etats-Unis pour y vendre des modèles adaptés aux besoins du marché.

Les dirigeant réalisèrent donc une étude de marché. Celle-ci leur révéla que les américains valorisaient essentiellement la vitesse et la puissance de leurs motos. Honda n’avait pas de moto adaptée mais elle tenta néanmoins l’expérience.

Elle détacha 3 de ses employés de à Los Angeles pour promouvoir les ventes de ses modèles. Afin d’économiser sur places ces derniers amenèrent avec leurs modèles de Supercub pour se déplacer.

Les trois employés passèrent une première année difficile. Certains concessionnaires acceptèrent de commercialiser les modèles Honda mais les résultats furent désastreux. Les motos Honda étaient adaptées aux petites rues irrégulières et aux trajets courts. Sur les autoroutes américaines les modèles s’abîmaient très vite. Ils n’étaient pas adaptés non plus à de longues durées de conduite à grande vitesse.

Les frais de remplacement des modèles sous garantis mirent la société en péril. Il fallait renvoyer les modèles qui s’étaient abîmés et les remplacer par des modèles neufs, frais de transport en sus.
Les trois commerciaux de Honda à Los Angeles décidèrent un jour de sortir avec leur Supercub 50cc dans des villages proches. Les voisins, en les apercevant en train de se préparer leur demandèrent où ils avaient trouvé ces jolies moto.

Ces derniers ne prêtèrent pas beaucoup d’attention à cet intérêt et continuèrent d’utiliser leurs Supercub pour leurs sorties. L’intérêt pour ces motos augmenta et un vendeur de Sears entra en contacta avec les trois commerciaux de Honda à Los Angeles. Mais la société mère au Japon préféra ignorer cette demande.

La société souhaitait continuer à développer son marché de motos urbaine on-road plutôt que le tout-terrain. Finalement, face aux demandes de plus en plus récurrentes, elle se décida à commercialiser ce modèle aux Etats-Unis.

Les trois représentants de Honda adoptère une stratégie de commercialisation différente cette fois. Il s’adressèrent à des magasins de sport pour distribuer ce modèle. Le bouche à oreille fonctionnait bien, mais la société n’avait pas les moyens pour réaliser une véritable campagne de publicité.

C’est à ce moment qu’une classe d’étudiant en Marketing à l’université de Los Angeles travailla sur un cas pratique au sujet de la Supercub. Un des étudiants proposa :

“Vous faites les plus belles rencontres sur un Honda” – “You meet the nicest people on a Honda”

Encouragé par son professeur, l’étudiant vendit son slogan à la société. Ce slogan permit de rendre la marque célèbre aux Etats-Unis.

Le dilemme de l'innovateur

You meet the nicest people on a Honda

La Honda 50cc était donc bien une inovation disruptive. Avec elle, le constructeur japonais changea le marché de la moto aux Etats-Unis. Il s’imposa d’abord dans les petites cylindrées en adressant des clients qui n’auraient jamais acheté une moto auparavant. Puis, il s’attaqua aux segments des grosses cylindrées, celui qu’il avait tenté de pénétrer à son arrivée. Cette-fois-ci l’expérience fût réussie et Harley Davidson et BMW perdirent leur place de leader.

Cette histoire illustre encore une fois le chemin classique d’une innovation disruptive. Celle-ci s’impose par le bas d’un value network. Là où les clients sont marginaux et les marges très faibles. Une fois que le produit y a fait ces preuves, son perfectionnement technique lui permet d’entamer sa migration vers le nord est, là où les performances attendues et les marges sont plus élevées.

La situation des années 50 s’est donc inversée. Dans les années 80, c’est Harley Davidson qui tenta de proposer un modèle de petite cylindrée en s’associant au fabricant italien Aprilla. Mais le produit était trop éloigné des standards des clients d’Harley. D’autre part, il était qualitativement inférieur aux modèles Honda. Il ne parvint donc pas à trouver sa clientèle.

 

COMMENT INTEL A DECOUVERT LE MARCHÉ DU MICROPROCESSEUR

Intel est l’une des sociétés qui a inventé le DRAM, la mémoire vive de l’ordinateur. Pendant longtemps, ce produit fût au coeur de son activité. Pourtant, en 1978, l’arrivée des constructeurs japonais de micro-composants avaient fortement réduit les marges dans ce secteur.

Comment Intel a-t-elle donc fait pour passer du métier de la mémoire et du stockage à celui très différent des microprocesseurs. En fait, cela arriva presque presque par accident.

Intel a développé son premier microprocesseur suite à un contrat avec un fabriquant de machines à calculer japonais. A l’issue de ce contrat, les ingénieurs d’Intel parvinrent à convaincre les managers de racheter le brevet de ce processeur.

Intel n’avait pas de stratégie pour développer ce processeur. Ce dernier avait une capacité limitée comparé aux unités de traitement centrales des ordinateurs de l’époque. Mais ils permettait de développer de nouvelles applications qui étaient auparavant impossibles.

Avec l’épuisement de ses marges sur le marché du DRAM, Intel commença à basculer progressivement vers le métier du microprocesseur.

Les dirigeants continuaient pourtant tous à focaliser leur attention sur le DRAM. Mais, dans le même temps, les managers et les ingénieurs réorientaient l’allocation de ressource vers le métier du microprocesseur. Aucune étude de marché n’a été réalisée pour valider cette orientation. Une telle étude n’aurait d’ailleurs rien pu prévoir.

Avec son premier processeur, le 8088, Intel a créé une technologie de rupture. Pourtant, les ingénieurs et marketeurs n’avaient aucune certitude sur ses usages potentiels.

Puis la génération de suivante de processeur fût mise au point. Là encore, les marketeurs n’envisagèrent pas qu’ils puissent être utilisés pour produire des ordinateurs personnels. Pourtant, c’est grâce au marché du PC que les ventes de processeur Intel décollèrent.

Au moment où le processeur était mis au point, personne chez Intel n’avait d’idée de quels pouvaient être les marchés adressés ni les revenus et marges à espérer. Finalement, c’est cet état d’esprit exploratoire qui a permis ce succès du produit.

 

FAIRE DES PREVISIONS DANS LE CADRE D’UNE INNOVATION DE RUPTURE

Une mauveaise idée n’est pas nécessairement une entreprise qui échoue

Revenons sur l’exemple d’INTEL. Les idées des ingénieurs et des marketeurs au sujet des débouchés du microprocesseur s’avérèrent fausses pour la plupart. Mais Intel ne suivait pas un plan d’action marketing. Contrairement à Apple (Newton) ou HP (Kittyhawk), ses investissments limités autorisaient donc l’expérimentation et l’erreur. L’activité microprocesseur d’Intel a donc survécu à de nombreux faux départs avant de trouver son marché. Il en est de même pour Honda.

En fait, la pluparts de nouvelles industries créées dans des contextes d’innovation ont eu à abandonner leur plan initial pour pouvoir trouver leur marché. Il est donc fondamental d’engager le moins de dépense d’étude ou de marketing dans des phases d’expérimentation.

 

Les mauvaises idées ne doivent pas signifier l’échec pour un manager

Pourtant dans la plupart des sociétés, ces échecs sont imputés aux managers qui ont porté les projets. Même si l’idée est mauvaise à la base. En se montrant incapables d’entrer dans une démarche d’apprentissage, les grandes société se retrouvent incapables de retirer les enseignements d’un échec. Si les managers d’HP avait privilégié l’écoute du marché de niche que représentait les acteurs du jeu vidéo sur la planification rigoureuse et l’investissement marketing massif, la trajectoire du Kittihawk aurait été bien différente.

La planification attentive est applicable à l’innovation incrémentale car cette dernière s’adresse à des clients connus.

 

La mauvaise idée est nécessaire à l’innovation disruptive

En cas d’innovation disruptive, il faut d’abord comprendre les clients et le marché auquel on s’adresse et cela ne peut être fait qu’en expérimentant.

L’exemple de Honda montre que le succès d’une technologie provient généralement d’une découverte faite par surprise. Cette situation de découvert n’est possible qu’en observant et en écoutant ce que les clients ont à dire.

Pour qu’un échec ne signifie pas une accroc dans sa carrière, le manager devra donc sortir de son bureau et écouter ce que les clients ont à lui dire.

 

Chapitre 8. Evaluer les forces et faiblesses de votre organisation

Lorsqu’ils décident de lancer un projet innovant et disruptif, les managers partent à la recherche d’employés idéals pour le porter. Il vérifient notamment que les qualités de chaque salarié pressenti ait la capacité de contribuer aux résultats attendus. Si son profil et son métier ne correspondent pas, alors il n’est pas choisi.

Malheureusement, ces managers ne se posent pas la question de savoir si leur organisation sera en mesure de faire réussir ce projet.

Pourtant, une organisation a elle aussi un profil et un métier qui va conditionner son travail. Ce profil peut faire dérailler un projet innovant.

Les managers doivent donc également adapter l’organisation pour qu’elle soit en mesure de faire aboutir le nouveau produit.

 

ORGANISER L’INNOVATION

Trois facteurs vont déterminer ce qu’une organisation est en mesure de faire ou pas : ses ressources, ses processus et ses valeurs.

 

Ses ressources

Ce sont les facteurs les plus visibles : les salariés, les équipements, la technologie, les produits, les systèmes d’information, les marques, les relations avec les fournisseurs, etc.

Elles peuvent être utilisées facilement et transférées d’un pôle de l’entreprise à l’autre sans difficulté. Les ressources sont donc rarement le problème d’un projet innovant.

Mais des ressources placées dans des contextes ou les valeurs et les processus diffèrent pourront avoir des résultats bien différents.

Pour organiser l’innovation, il faut donc porter l’attention à ces deux critères.

 

Ses processus

Les organisations créent de la richesse lorsque les employés transforment les inputs (travail, équipement, technologie, énergie, information, etc.) en produit et service de plus grande valeur.

Le processus est le modèle dans lequel ces ressources interagissent.

Certains de ces processus sont formalisés, c’est à dire formalisés, rédigés et suivis. D’autres sont informels, ils correspondent à des habitudes de travail installées dans l’entreprise depuis longtemps. Elle correspondent à l’affirmation :

“C’est comme ça qu’on travaille ici”.

Les processus permettent d’effectuer des tâches spécifiques. L’obsession des managers pour les processus vient du fait qu’ils permettent de s’assurer qu’une tâche a bien été effectuée correctement ou non. Le non respect d’une tâche et du processus signifie pour eux que le principal levier de création de richesse dans l’entreprise est perturbé.

Ce point démontre donc que pour un manager, un projet innovant managé par l’essai-erreur est un risque pour l’organisation.

 

Ses valeurs

Le dernier facteur est celui des valeurs de l’entreprise. Les valeurs sont les critères qu’une entreprise utilise pour définir ses priorités. Par exemple :

  • Est-ce qu’une commande est suffisamment intéressante ?
  • Est-ce qu’un projet est risqué ?
  • Est-ce qu’un client est plus important qu’un autre ?
  • Est-ce qu’une idée innovante est attractive ou sans intérêt ?
  • Est-ce que les marges promises par un nouveau produit sont intéressantes ?
  • Etc.

Cette question des valeurs est particulièrement importante. C’est-elle qui explique les organigrammes par exemple. En effet, les managers seniors ont besoin de former d’autres managers pour que ces derniers puissent prendre des décisions de moindre importance. Plus une entreprise grossit, plus elle doit prendre de décision et plus il est nécessaire de diffuser les valeurs et de complexifier l’organigramme.

Associé au processus, on comprend pourquoi le middle-management se retrouve à prendre des décisions qui éliminent les projets innovants.

 

COMMENT LES PROCESSUS ET LES VALEURS PEUVENT CONTRIBUER AUX INNOVATIONS INCREMENTALES ET DISRUPTIVES

Revenons sur les chiffres du marché du disque dur présenté dans The innovator’s dilemma.

En 40 ans, il y a eu 111 innovations incrémentales et 5 innovations disruptives. A la suite de chacune des transformations technologiques incrémentales, les leaders ont pu maintenir leur position. A l’issue de chacune des cinq innovations disruptives, les nouveaux entrants dominaient le marché.

Le modèle RVP (ressource/valeur/processus) proposé par Clayton Christensen permet d’expliquer pourquoi les entreprises établies penchent naturellement vers l’innovation incrémentale et ignorent l’innovation disruptive.

  • L’intérêt d’une innovation incrémentale peut être évalué grâce à une étude de marché. En fonction des résultats de l’étude les managers prendront la décision de développer ou non cette innovation. Ces deux tâches sont identifiables dans le cadre d’un processus. Elles peuvent être formalisées.
  • L’innovation incrémentale permet aussi d’augmenter les capacités de ses produits, leurs prix et donc les marges. Là aussi, les valeurs permettront au manager de prendre une décision.

 

RESSOURCES / VALEURS / PROCESSUS DANS LE CAS D’UNE TECHNOLOGIE DISRUPTIVE

Une startup trop dépendante de ses ressources

Au démarrage d’une start-up, les réalisations sont essentiellement portées par les ressources de l’entreprise.

Mais au fur et à mesure de sa croissance, les processus et les valeurs de l’entreprise finissent par être établis. L’entreprise s’appuiera alors de moins en moins sur ses seules ressources et de plus en plus sur des valeurs et des processus définis.

Ce passage est important car c’est lui qui permettra à l’entreprise d’augmenter ses ventes en volumes et ses revenus. En rationalisant ses efforts, la startup peut passer d’un situation de nouvel entrant à une situation de leader.

Voici par exemple ce qui arriva à Avid Technology au début des années 90. Cette startup lança un logiciel d’édition vidéo qui permettait d’accélérer sensiblement le temps de montage. Ce produit rencontra alors un succès immédiat.

Très vite, les ventes augmentèrent mais l’entreprise ne disposait pas d’une gestion de stock efficace pour faire face aux commandes.

De plus, le logiciel connût de nombreux bugs sans que l’entreprise n’arrive à les régler. Elle ne parvint donc pas à contruire les processus qui lui auraient permis d’affronter ses problèmes de qualité et de stock. L’entreprise ne pût jamais dépasser le stade où la valeur est produite grâce aux efforts fournis par ses ressources. En moins de trois ans, des concurrents prirent sa place de leader alors qu’Avid avait pourtant crée ce marché.

 

Un cabinet de conseil qui ne s’appuie que sur ses valeur et ses processus

McKinsey et les autres cabinets de Conseils sont des exemples de sociétés qui s’appuient exclusivement sur les valeurs et et les processus. Elles recrutent chaque année des centaines de personnes issues des meilleurs MBA. Puis elles les forment à leurs méthodes et les envoient mener des projets chez les clients. Pourtant, ces sociétés ont peu changé depuis un siècle.

Elles se sont très peu diversifiées. Elles ont échoué à se positionner sur les marchés pourtant voisins du service informatique. Aujourd’hui leur marché est marginal en comparaison de celui de ces grands acteurs du service. Leur conservatisme extrême appuyé par des processus efficaces et des valeurs rigides ne leur a pas permis de bénéficier d’une innovation que des ressources internes auraient pu proposer.

 

La difficulté à équilibrer son RVP (Ressource / Valeur / Produit)

La réussite d’un nouvel entrant est généralement présentée comme étant la réussite d’un produit auprès d’un segment client. Mais cette présentation est partielle.

Un nouvel entrant réussit aussi parce ses fondateurs sont parvenus à établir quelles devaient être les priorités de l’organisation. Ces fondateurs parviennent ainsi à mettre en place un système de résolution de problème qui permettent aux managers de prendre des décisions.

C’est ainsi que le système de valeur de l’entreprise se consolide.

Progressivement, les managers finissent par se convaincre que ce système de valeur est la seule façon possible de travailler dans leur entreprise. Les processus et les valeurs sont alors regroupées sous le mot culture d’entreprise.

Pour les managers, l’enjeu devient alors de faire accepter cette culture d’entreprise aux employés. La culture d’entreprise est un outil puissant pour faire avancer collectivement les employés d’une startup vers la réussite.

Une culture d’entreprise est donc l’aboutissement d’un parcours où la construction de la richesse est basée sur les individus, puis sur les processus et enfin sur les valeurs.

Toutefois, la culture d’entreprise précise aussi ce que l’organisation ne doit pas faire. Elle devient ainsi une énorme faiblesse au moment d’affronter le changement.

Digital Equipment Corporation (DEC) avait-elle les moyens de réussir dans ordinateurs personnels ?

DEC était une des marques de référence dans la fabrication des premiers PC. L’entreprise était déjà leader dans la production de micro-ordinateurs. Ses compétence technologiques étaient reconnues et sa marque aussi. Enfin, l’entreprise disposait d’une très bonne trésorerie.

Pourtant DEC n’est pas parvenue à évoluer vers le marché du PC. L’entreprise avait bâti un RVP efficace dans le marché de du micro-ordinateur. Elle assemblait par exemple ses composants en mode batch et pouvait rapidement produire et livrer des commandes importantes. De ce fait, elle adaptait sa production à la demande et limitait considérablement ses coûts. Chaque mise au point de nouveaux modèles prenait entre 6 et 12 mois.

Ses clients étaient essentiellement des entreprises. Tout cela lui garantissait des marges d’à peu près 50%.

Dans les années 80, les premiers modèles de PC firent leur apparition sur le marché. DEC évalua l’opportunité de développer ces nouveaux produits. Mais le système de priorisation de l’entreprise (valeurs) réduisait systématiquement la priorité attribuée au projet de mise au point du PC.

Chaque tentative était avortée par un système RVP (Ressources / valeur / Produit) entièrement construit pour produire des micro-ordinateurs générant une marge unitaire de 50%. DEC déclina peu de temps après et disparût à la fin des années 90.

 

QUELLES CAPACITÉS POUR FAIRE FACE A L’INNOVATION DISRUPTIVE

Les ressources humaines s’adaptent, pas les processus et les valeurs

Contrairement à l’idée répandue, les ressources sont celles qui s’adaptent le plus facilement en cas de changement. Si un employé ne parvient pas à effectuer une nouvelle tâche, il suffira de le former ou de l’affecter à une tâche avec laquelle il sera plus à l’aise. Enfin, les employés peuvent être experts dans plusieurs domaines et faire preuve de polyvalence.

Les processus n’ont pas la faculté d’adaptation des ressources humaines. En cas de changement, leur adaptation est plus lourde. Si une entreprise ne dispose pas des compétences requises, il est fréquent qu’elle fasse appel à un partenaire ou à un fournisseur spécialisés. Elle renonce ainsi à se doter d’une capacité.

Les valeurs sont les plus complexes à faire changer. Comme le montre l’exemple de DEC, une société habituée à des marges élevées ne parviendra pas établir un système de priorités pour développer des produits à marge plus basse.

C’est pour cette raison qu’il est souhaitable dans ces cas d’acquérir une autre société ou de créer une filiale. Celle-ci aura la possibilité de s’appuyer sur ses propres ressources pour construire progressivement ses processus, son système de valeurs et sa culture d’entreprise.

Dans ces cas là, la société mère devra laisser sa filiale se développer. En cas d’absorption trop rapide, la culture d’entreprise et le système de valeur de la petite société s’évaporeront aussitôt. Or ce sont eux qui permettent à une innovation d’aboutir et de créer une croissance durable.

 

L’acquisition d’une startup

En 1984, IBM fît l’acquisition de ROLM, une société leader dans la fabrication de systèmes PBX (autocommutateur téléphonique privé).

La société acquise étaient très performante et son métier promettait pour l’avenir. Mais IBM décida de fusionner les équipes des deux sociétés. Le chiffre d’affaire des activités de Rolm s’effondra. En effet, les commerciaux d’IBM étaient habitués à des marges de 18% alors que celles des autocommutateurs de Rolm étaient de moins de 10%. Ces derniers ne réalisèrent aucun effort pour mettre en avant ces produits.

Des sociétés comme Johnson & Johnson se sont habitués à développer leurs innovations à l’extérieur de leur entreprise. Johnson & Johnson a créé des activités dans de nombreux domaines à partir d’acquisitions externes : lentilles de contact, chirurgie endoscopique, traitement du diabète, etc. De même pour Cisco, Lucent Technologies et Nortel dans le domaine des routeurs.

Toutefois, dans ces cas là, la fenêtre d’ouverture pour procéder à une acquisition est limitée. Par exemple, Lucent a payé extrêmement cher pour le rachat d’Ascend Communications. De même pour Nortel avec Bay Networks. Les startups acquises avaient déjà consolidé leur base client et leur marché. Elles étaient bénéficiaires et s’apprêtaient à s’attaquer au marché de la voix. En fait, Lucent et Nortel avaient tenté de développer les produits en question en interne. Mais elle n’y étaient pas parvenues.

 

Créer de nouvelles capacités au sein de l’entreprise

Acquérir de nouvelles capacités n’est pas complexe en soi. Il suffit de recruter, d’investir dans des machines outil, créer une marques, etc. Mais si elle sont insérées dans un système de valeur et des processus qui ne changeront pas, ces ressources produiront peu de résultat.

Au début des années 90, General Motors créa une nouvelle marque, Saturn. Elle s’adressait au segment de clientèle des berlines de ville. Les constructeurs américains avaient ignoré ce marché jusque là et les constructeurs japonais avaient occupé ce segment. La voiture devait-être plus économique, moins chère et plus pratique et adaptée aux petits déplacements.

Saturn n’était pas juste une marque. Elle avait ses propres salariés et son usine dans le Tenessee. Elle disposait également d’un réseau de concessionnaire propre. Le lancement fût réussi mais les ventes de Saturn pénalisaient essentiellement celles des autres marques du groupe. Au début des années 2000, GM décida de rationaliser ses moyens de production et la production des voitures Saturn regroupée avec celle des autres marques.

La culture d’entreprises de General Motors étaient adaptées à la fabrication de grosses berlines américaines, pas celle de Saturn. En peu de temps, la spécificité de la marque se dilua, les ventes s’effondrèrent. Finalement, GM annonça la disparition de Saturn en 2012.

Une société ne peut mener à bien une innovation de rupture si elle ignore la réalité de ses processus et de ses valeurs. Les dirigeant doivent donc s’assurer qu’un innovation est portée par des ressources, des processus et des valeurs appropriées.

Clayton Christensen propose le modèle suivant pour savoir si l’innovation peut-être portée en interne ou si elle doit être externalisée.

Le dilemme de l'innovateur

Schéma 8.1 – Adapter les besoins d’innovation aux capacités de l’organisation – Le dilemme de l’innovateur – Clayton Christensen

Comment lire le schéma

Les axes de gauche et du bas représentent les questions que doit se poser le manager au sujet d’une situation existante.

Les notes sur l’axe de droite représentent la réponse appropriée aux situations de l’axe de gauche.

Les notes sur l’axe du haut correspondent la réponse appropriée aux questions de l’axe du bas.

  • Région A du schéma 8.1 : Elle décrit une situation dans laquelle le manager est confronté à une innovation technique importante mais dont la logique reste incrémentale.
    Le manager aura certes besoin d’une grosse équipe de développement mais le projet peut-être mené au sein de l’entreprise. Clayton Christensen donne l’exemple du développement d’Internet Explorer par Microsoft. On peut aussi penser à l’adoption de la 4G ou de la fibre pour les opérateurs Télécoms.
    Ces projets d’innovation incrémentale sont extrêmement difficiles à mener. Ils visent à renforcer le business modèle existant de la société.
  • Région B : Il s’agit des projets d’innovation incrémentale simple. L’ajout d’une fonctionnalité ou l’augmentation des capacités d’un produit en font partie.
  • Région C : Les dirigeants sont confrontés à une technologie disruptive et l’organisation et les valeurs d’entreprise ne leur permettent pas de se l’approprier.
    Ils devront donc créer une organisation pour relever le défi. Pour Clayton Christensen, lorsqu’un réseau de distribution physique souhaite se diversifier sur internet, il se retrouve dans ce cas de figure.
  • Région D : Les projets disruptifs reposent sur la même technologie que le métier historique de l’entreprise. Mais il nécessitent des coûts et des investissements bien plus bas. Une équipe fonctionnelle légère sera chargée du développement commercial du produit tout en s’appuyant sur les capacités de production de l’activité principale.
    L’autonomie fonctionnelle de cette équipe sera ici fondamentale.

Ce modèle doit bien entendu être relativisé. Prenons l’exemple de DELL. Cette entreprise vendait des ordinateurs par téléphone. Lorsqu’elle décida de créer un nouveau magasin en ligne, il s’agissait bien d’une innovation incrémentale. Elle ouvrait un nouveau canal sans remettre en cause sa technologie et ses marges. Le projet a donc été géré en interne.

Pour Compaq, HP et IBM, cette stratégie aurait été au contraire disruptive. Par conséquent, il aurait été nécessaire de passer par un partenariat, un acquisition ou de créer une filiale autonome.

Chapitre 9. Performance, demande du marché et cycle de vie produit

Dans la première partie du livre, nous avons vu que les capacités technologiques d’un produit finissait toujours par dépasser ce que le marché attendait.

Nous avons également vu que ce moment là était un déclencheur. Il créait une opportunité d’innovation. Des nouveaux entrants pouvaient dès lors proposer des produits aux capacités plus faibles et adressant des segments de clientèle ignorés.

 

COMMENT LES PERFORMANCE EXCÉDENTAIRES CHANGENT LES RÈGLES DE LA COMPENSATION

 

Le dilemme de l'innovateur

Intersection des trajectoires entre les capacités fournies et les capacités demandées – Le dilemme de l’innovateur – Clayton Christensen

Le schéma 1.7, déjà présenté dans la première partie du livre montre qu’en 1988, les disques durs de 3,5 pouces et de 5,25 pouces fournissaient des capacités plus qu’adéquates. Pourtant, les fabricants de disque ont continué à les améliorer, et le disque dur de 3,5 pouces a fini par supplanter celui de 5,25 pouces sur le marché du PC.

A capacité égale, ce disque coûtait pourtant près de 20% plus cher que celui de 5,25 pouces. Pourquoi les fabricants de PC ont ils préférés utiliser une technologie plus chère alors que celle qu’ils utilisaient jusqu’alors était satisfaisante et coûtait moins cher.

En fait, en 1988, la petite taille des disque prit plus d’importance que ses autres caractéristiques. Ils permettaient aux fabricants d’ordinateurs de réduire la taille du matériel.

Voici donc l’allure que prend l’évolution d’une compétition technologique entre concurrents. Dans un premier temps, l’innovation va chercher à augmenter les capacités. Puis dans un second temps, elle cherche à réduire la taille. Dans un troisième temps, c’est la fiabilité. Ce n’est que dans le dernier stade que l’effort porte sur les prix, quand le produit a atteint sa limite physique et que l’innovation décline.

 

A QUEL MOMENT UN PRODUIT DEVIENT UNE MARCHANDISE ?

Schéma 9.3 – Modèle de l’offre de performance excédentaire appliqué à l’industrie du disque dur- Le dilemme de l’innovateur – Clayton Christensen

Schéma 9.3 – Modèle de l’offre de performance excédentaire appliqué à l’industrie du disque dur- Le dilemme de l’innovateur – Clayton Christensen

“Ils traitent notre produit comme une vulgaire marchandise ».

Voici ce que disent généralement des commerciaux déçus qui ne parviennent plus à faire valoir les qualités techniques de leur produit. Clayton Christensen parle de transformation du produit en marchandise. Le produit devient une marchandise lorsque ce dernier n’a plus d’autre qualité à faire valoir que son prix.

C’est exactement ce qui est arrivé au disque dur de 5,5 pouces en 1988. Et c’est aussi ce qui arrive aujourd’hui (en 2018) aux disques dur de 3,5 pouces.

Quand une compétition (concurrence) se déroule sans contrainte (monopoles, règlementation), le potentiel d’optimisation du produit s’épuise du fait de la mise à disposition d’une successions d’améliorations sur le marché.

Clayton Christensen en déduit un modèle de l’offre de performance excédentaire (Perfomance oversupply framework).

 

LE MODELE DE L’OFFRE DE PERFORMANCE EXCEDENTAIRE ET L’EVOLUTION DE LA CONCURRENCE SUR UN PRODUIT

Phase 1 : Lorsqu’aucun produit ne satisfait la demande du marché, les fabricants les font évoluer en augmentant les performances et en ajoutant des fonctionnalités.

Phase 2 : Lorsque 1 à 2 produits arrivent à satisfaire la demande du marché, la fiabilité qui devient déterminant.

Phase 3 : Puis les performance des produits finissent par répondre à la demande de fiabilité marché de façon crédible. Les clients tendent alors à demander des produits à plus forte praticité : taille, encombrement, gain de temps.

Phase 4 : Enfin, les produits proposés sur le marché cessent d’évoluer. Ils deviennent finalement des marchandises. Tous les produits répondent aux besoins minimaux de performance / fiabilité / praticité du marché. Le seul critère différenciant sera le prix.

Clayton Christensen salue ici la contribution de Geoffrey Moore et de son livre, Crossing the Chasm. Ce dernier fait reposer les phases décisives de l’innovation sur les usagers et les clients et non pas sur le produit.

En effet, Geoffrey Moore souligne le rôle déterminant des early adopters. Ces derniers vont choisir un produit sur la base de ses seuls fonctionnalités. Ce sont donc ces usagers innovateurs qui vont permettre à une technologie de s’installer en l’aidant à passer les phases 1 (performance), 2 (fiabilité) et 3 (praticité). La dernière phase tendrait ici à correspondre à l’adoption du produit par le grand public.

Ce modèle de l’offre de performance excédentaire décrit très bien l’évolution incrémentale d’une technologie. Mais est-il applicable tel quel à l’innovation disruptive?

 

CYCLE DE VIE DU PRODUIT ET INNOVATION DISRUPTIVE

Le modèle de l’offre de performance excédentaire est en réalité perturbé par l’apparition d’une technologie de rupture. Cela est dû à deux caractéristiques de l’innovation disruptive.

 

Le critère déclencheur l’innovation disruptive est la satisfaction d’un besoin négligé, pas la recherche de performance

En cas d’inovation disruptive, le modèle de l’offre excédentaire ne s’applique plus. Nous avons vu avec tous les exemples plus haut (IBM, industrie sidérurgique, excavation) que le premier critère est la satisfaction d’un marché ignoré et marginal.

En créant un structure commerciale qui adresse ces besoins, l’entreprise créé un produit qui par la suite pourra augmenter ses performances. Les managers qui souhaitent introtuire un produit disruptif ne doivent donc pas partir à la recherche des performances avant d’avoir établi leur clientèle.

 

Les technologies disruptives sont intrinsèquement plus simples, moins chères et plus fiables que les technologies établies

Même si le prix d’une technologie disruptive peut paraître plus élevé au départ, le rapport performance / praticité / fiabilité / prix joue toujours en faveur de la technologie disruptive.

Celle-ci, en achevant son cycle d’innovation incrémentale aura toujours un prix plus bas que la technologie établie qui finira par être supplantée.

 

LES PERFORMANCES EXCEDENTAIRES DANS LE MARCHÉ DES LOGICIELS DE COMPTABILITÉ

Intuit est le leader des logiciels financiers dédiés aux PME aux USA. La société détient 70% des parts de marché. Pourtant, la société était à la base spécialisés dans les logisiels financiers grands publics. Elle est entrée tardivement sur ce marché des PMA. La société avait identifié les trois points suivants pour développer son produit :

  • Premièrement, l’entreprise n’avait pas la compétence requise pour s’adresser à des clients experts (auditeurs, contrôleurs financiers). Elles pouvait par contre s’appuyer
  • Deuxièmement, les fonctionnalités les plus commodes de ce type de solution étaient le reporting. Pourtant elles étaient négligées par les offres du marché.
  • Troisièmement, dans les PME ciblées, il n’y avait généralement pas de personnes travaillant en tant que comptable. Cette tâche était accomplie par le dirigeant d’entreprise ou un membre de sa famille.

Alors que les acteurs du marché tendaient à ajouter des fonctionnalités et complexifiaient leur produit pour des publics experts, Scott Cook a donné la priorité à un besoin négligé : la simplicité.

Quickbook, le produit d’Intuit changea donc les bases de la compétition. Celui-ci était plus simple à utiliser et répondait à l’essentiel des demandes des publics les moins experts. L’outil devint ainsi le standard du marché que de nouveaux compétiteurs cherchaient maintenant à copier.

 

CONTRÔLER L’INNOVATION DANS UN CONTEXTE CONCURRENTIEL

 

Le dilemme de l'innovateur

Schéma 9.4 – Changement dans les bases de la compétition – Le dilemme de l’innovateur – Clayton Christensen

Clayton Christensen propose ce schéma pour tenter de comprendre les trois stratégies qui s’offrent à un manager pour créer un marché pour son produit de rupture.

  • Stratégie 1 : Développer les fonctionnalités d’un produit en privilégiant la performance et la fiabilité. C’est la stratégie qu a choisi HP avec les imprimantes jet d’encre par exemple. Le but de l’entreprise est d’acquérir des clients haut de gamme, là où les marges sont plus élevées.
  • Stratégie 2 : Apporter du confort et des prix bas. Ce sont les stratégies des entrants les plus tardifs sur en marché disruptif. Ces entreprises tenteront d’absorber une part du marché en offrant du confort aux clients (DELL) ou en proposant des prix bas (RYANAIR, EASYJET).
  • Stratégie 3 : Tenter d’influencer l’évolution de la demande vers plus de performance ou de fiabilité via des actions de marketing (APPLE).

Il n’y a pas véritablement de mauvais stratégie selon Clayton Christensen. Pour chacune de ces stratégies, on constate beaucoup d’échecs et de belles réussites.

 

Chapitre 10. Un cas d’étude : la voiture électrique

 

Le livre se finit sur un chapitre qui imagine comment la voiture électrique pourrait finir par s’imposer en tant que technologie de rupture.

Quelques dates d’abord :

  • 1900 : la voiture électrique est supplantée par la voiture à essence comme véhicule individuel motorisé ;
  • Années 1970 : les fabricants lancent les premières recherche de motorisation électrique dans un contexte de hausse du prix du pétrole
  • 1998 : La Californie vote une loi qui oblige les fabricants à vendre au moins 2% de voitures électriques dans l’état.

La question que pose Clayton Christensen dans The innovator’s dilemma est la suivante : La voiture électrique constitue-t’elle un opportunité de croissance durable pour les fabricants d’automobiles ?

Pour cela, deux conditions sont nécessaires :

  • La performance offerte par les technologies existantes doit dépasser la demande longtemps
  • La voiture électrique doit répondre au besoin d’un segment de clientèle ignoré par l’industrie actuelle

 

LA VOITURE ELECTRIQUE EST-ELLE UNE TECHNOLOGIE POTENTIELLEMENT DISRUPTIVE?

La première condition est atteinte depuis longtemps. Personne ne roule aux vitesses maximales offertes par les véhicules, la plupart des options du véhicule ne sont jamais utilisées et l’autonomie de la plupart des véhicules est très confortable. La voiture électrique, elle, n’offre pas toutes ces qualités. L’autonomie notamment ne permet pas de répondre aux besoins de la plupart des usagers. A noter également qu’à l’époque où The innovator’s dilemma a été écrit (1998), l’autonomie de ces voitures était extrêmement faibles.

Mais ce n’est pas suffisant pour déterminer si une technologie est disruptive. Pour cela il faut que la trajectoire d’amélioration de la technologie rejoigne progressivement la demande moyenne du marché.

Le dilemme de l'innovateur

La voiture électrique et les performances attendues du marché

C’est ce que nous voyons dans ce schéma. Sur l’ensemble des critères ci-dessus, nous voyons que la trajectoire d’amélioration de l’électrique est réelle. Cette technologie n’atteindra peut-etre pas les performances de la voiture à carburant avant longtemps. Mais dans un schéma de disruption, c’est la demande du marché qui sert de référence et non la performance offert par les produits existants.

Le véhicule représente donc bien un rupture potentielle sur le marché de l’automobile. Reste à savoir si des segments de clientèle peuvent trouver un intérêt à utiliser un nouveau segment de clientèle.

 

Y-A-T’IL UN MARCHÉ POUR LES VÉHICULES ÉLECTRIQUES

Dans le cas de l’excavation hydraulique, la faible contenance des seaux signifiait une faible capacité d’extraction. Pourtant cette limite avait fini par devenir un avantage. La plupart des petits chantiers n’avaient pas besoins de grosses capacités d’excavation.

Dans le cas de la voiture électrique, est-ce qu’il existe un public qui serait génés par la faible vitesse et le manque d’autonomie. Ces derniers valoriseraient par contre le faible coût de l’approvisionnement en comparaison à l’essence.

Clayton Christensen identifie deux cibles :

  • Les parents souhaitant offrir un véhicule à leur enfant. Ces derniers préfèreraient offrir un véhicule moins performant et donc moins dangereux.
  • Les conducteurs de centres urbains congestionnés.

 

QUEL SERAIT LE PRODUIT, SA TECHNOLOGIE ET SA STRATÉGIE DE DISTRIBUTION ?

Développer un produit dans un contexte disruptif

En suivant ce schéma, le développement voiture électrique devra suivre ce schéma :

  • Premièrement : l’objectif devra-être de produire une voiture simple, fiable et confortable. Les batteries devront par exemple être rechargeables rapidement et un peu partout.
  • Deuxièmement : Dans la mesure où personne ne connaît les clients de la voiture électrique, elle devra être construite en mode essai-erreur. C’est à dire que les premiers modèles devront pouvoir être réajustés en permance jusqu’à satisfaction des besoins d’un premier segment client. C’est à ce moment là que la production en série pourra être envisagée.
  • Troisièmement : la voiture devra être vendue à prix bas. Ce point est une condition du succès de l’usage de la voiture électrique. Cela même si le coût à l’usage s’avère plus élevé.

 

Stratégie technologique pour une innovation disruptive

Historiquement, une innovation disruptive ne coïncide pas avec une innovation technologique. Dans le cas de la voiture électrique, cela pose un problème. La technologie des batteries ne permet pas à l’heure actuelle d’envisager de développer une automobile ayant plus de 100km d’autonomie (nous sommes en 1998).

Pour les clients des constructeurs automobiles actuels, cette limite est trop importante. C’est pour cela qu’une telle innovation ne viendra probablement pas d’un constructeur automobile établi. Le nouvel entrant identifiera un segment de marché pour lequel les limites actuelles de la voiture électrique ne posent pas d’inconvénient.

 

Stratégie de distribution dans un contexte disruptif

Comme pour Honda dans la moto, la voiture électrique devra trouver un réseau de distribution propre. Les réseaux de distribution actuels s’appuient sur un modèle économique et des marges qui ne seront pas nécessairement ceux de la voiture électrique.

 

QUELLE ORGANISATION ?

L’organisation devra se satisfaire de faibles commandes et des marges limitées dans les premiers temps. C’est pour cela qu’il devra s’agir idéalement d’une entreprise distincte, qu’elle soit la filiale d’un groupe existant ou une entreprise entièrement indépendante.

Vu le gap technique et d’usage, la société devra tenir un long moment avant d’engranger du succès. Elle nécessitera donc un nombre d’essai extrêmement élevés avant de réussir.

Livre :

Liens complémentaires :

The innovator’s dilemma – Première partie

The Innovator’s dilemma (Le dilemme de l’innovateur – 1997 – non traduit) est le premier livre de Clayton Christensen.

Le livre analyse les raisons qui amènent les entreprises leaders à perdre progressivement leur position sur un marché. Il s’agit généralement d’entreprises bien managées. Leurs marges sont élevées et en général, les investisseurs se ruent sur leurs actions. Les clients aussi manifestent leur confiance en renouvelant leurs commandes.

Pourtant, pendant ce temps, un compétiteur marginal intègre le marché. Contrairement à l’entreprise leader, il arrive avec un proposition de produit plus simple. Celle-ci est destinée à un segment de clientèle délaissé. Généralement, son offre est plus coûteuse à produire et ses marges sont donc plus basses. Finalement, son offre s’impose et entraîne un changement dans la configuration du marché.

The Innovator’s dilemma est un livre particulièrement bien écrit et agréable à lire. Aucun autre livre ne détaille aussi bien les mécanismes d’une innovation disruptive. Il donne ainsi des clés de lectures indispensables pour la compréhension de l’innovation et du cadre général dans lequel les startup interviennent.

 

Introduction

Au début des années 50, Sears est devenu leader de la grande distribution aux Etats-Unis. L’entreprise apportait un lot d’innovations dans le secteur qui sont aujourd’hui des fondamentaux du métier.

 

L’âge d’or de Sears et du mainframe

Elle rationalisa d’abord sa chaîne d’approvisionnement. Puis elle créa un catalogue annuel gratuit qui permettait au client de faire ses choix avant de se déplacer en magasin. Ensuite, elle inventa le concept de marque distributeur. Enfin, elle autorisa l’achat à crédit, ce qui augmenta significativement son volume de chiffre d’affaire.

Ainsi, à la fin des années 60, l’image de Sears était communément associée à la nouveauté et au dynamisme.

Pourtant, de nos jours en Amérique du nord, plus personne ne présente Sears comme une entreprise innovante. Au contraire, l’entreprise a raté l’ensemble des grandes évolutions du secteur depuis les années 70.

 

Les grandes surfaces innovent dans les années 70

D’abord, elle comprit trop tard l’intérêt des grandes surfaces dans les années 70. De même, elle passa complètement à côté de la distribution par internet dans les années 2000. Alors qu’elle était dominante en Amérique du nord et en Amérique latine, elle est aujourd’hui confinée aux Etats-Unis.

Mais le plus troublant est que le marché de Sears a changé au moment même où son histoire devenait une success story, vers 1965. Au moment où les premiers hypermarchés et le hard discount sont apparus.

The innovator's dilemma

Cataloque Sears – Page jouets

Les acteurs du mainframe ratent l’émergence du PC

De même, la branche d’IBM qui dominait le marché du mainframe est passée à côté du marché du PC. D’ailleurs, aucun des concurrents d’IBM dans le mainframe n’a réussi ce passage vers le monde du PC. Ce raté a ouvert la brèche pour de plus petits acteurs tel Commodore, Apple ou Tandy.

En fait, la maison mère d’IBM n’a pas réellement raté ce passage. D’abord, elle constata l’incapacité de ses équipes à proposer des ordinateurs légers. Elle autorisa en conséquence la création en son sein d’une petite startup, IBM PC. Celle-ci eut l’autorisation d’entrer en concurrence avec les activités de sa maison mère.

 

Les clients et les investisseurs freinent l’innovation disruptive

Des investisseurs que l’on cherche à satisfaire à court terme

En 1986, le DG de DEC annonçait fièrement à ses investisseurs que son entreprise était leader d’un marché rentable à la croissance vertigineuse.

Pourtant quelques années plus tard dans la presse, le nom de DEC était généralement associé aux mots restructuration, plan de relance, échec, faibles marges et promesses non concrétisées.

Les exemples d’échec d’entreprises leaders et innovantes en leur temps sont nombreux : Xerox, Digital, HP, etc. Certaines ont connu l’échec avant de se reprendre comme Apple.

 

Des managers qui ont trop écouté leurs clients

En fait, ces entreprises étaient parfaitement bien managées. Elles écoutaient leur client, investissaient massivement, disposaient de personnel compétent. C’est justement ce qui les a mené à la perte de leur leadership.

Face à une innovation disruptive il convient justement de ne plus écouter ses clients, d’investir dans des produits à faible performance, fournissant des marges plus basses et ciblant des petits marchés plutôt que des gros.

Pour en faire la démonstration, Clayton Christensen commence par poser plusieurs idées qui nous éclairent se le dilemme de l’innovateur.

 

Le rôle de la technologie

La technologie est ce qui permet de transformer le travail, les organisations et l’information en services à grande valeur ajoutée. Sears employait par exemple une technologie particulière pour acheter, présenter et vendre ses produits.

Ses concurrents comme Costco employaient une technologie différente. Cette technologie implique des manières de faire propres à l’entreprise : c’est à dire manière bien précise de faire de l’ingénierie, du marketing ou de s’organiser. L’innovation de rupture ou disruptive va consister à remettre en cause une des ces trois manières de faire.

 

Le dilemme de l’innovateur

Par conséquent, Clayton Christensen va chercher à détailler les mécanismes de l’innovation de rupture à l’origine du dilemme de l’innovateur. En effet, dans une entreprise, le manager doit simultanément :

    • Continuer à développer à court terme le business établi d’où provient la rentabilité ;
    • Mettre à disposition les ressources adéquates au développement une technologie nouvelle. Celle-ci vise à terme à remplacer le business actuel dont l’entreprise tire pourtant toute sa rentabilité.

Le modèle de l’échec

Or, en règle générale, le manager privilégie toujours la première orientation. C’est à dire la rentabilité à court terme.

Voici comment l’industrie du disque dur illustre ce tropisme. En effet, celle-ci a connu six innovations de rupture dans le trente dernières années. Pourtant, ce n’est qu’à deux reprises seulement que le leader du marché n’a pu maintenir sa position avec la généralisation de produit suivante.

Par conséquent, Clayton Christensen souligne qu’il y a bien un modèle de l’échec (failure framework). Il identifie trois raisons qui mènent le management classique à échouer en cas d’innovation disruptive.

 

Raison 1 : L’absence de distinction entre innovation disruptive et innovation incrémentale

La plupart des innovations sont en réalité des améliorations incrémentales des performances d’une technologie existante.

Ce sont les innovations incrémentales. Ces dernières permettent d’améliorer les produits existants. Le fabricant cherche ainsi à augmenter la valeur perçue du produit par les clients traditionnels.

 

Une technologie disruptive apparaît plus rarement.

Elle correspond à un changement dans la proposition de valeur qui fait référence sur le marché.

Généralement, le nouveau produit est moins performant. Mais il propose des fonctions auquel un public nouveau (ou écarté) accorde de la valeur.

En résumé, les produits basés sur une innovation de rupture sont moins chers, plus simples et souvent plus pratiques à utiliser.

 

Certaines innovations peuvent-être incrémentales dans certains secteurs et disruptives dans d’autres

Par exemple, la généralisation de la fibre est une innovation incrémentale pour les opérateurs téléphoniques. Par contre, elle est disruptive pour les industriels de la télévision.

En effet, elle remet en cause leur stratégie de distribution de contenus en ouvrant un nouveau canal de distribution et en changeant les règles de tarification du secteur.

 

Raison 2. Le progrès technique fait oublier quels sont les besoins clients

Dans leur effort habituel pour multiplier les innovations incrémentales, les entreprises finissent par proposer des produits qui dépassent les attentes.

The innovator's dilemma

Source : The innovator’s dilemma

C’est ce que nous voyons dans le schéma I.1. Dans cette course à l’innovation incrémentale, les produits proposés peuvent ainsi devenir également plus chers que ce que le client peut payer.

C’est cette situation qui permet à une innovation disruptive d’être lancée en proposant des produits aux performances en deçà de ceux de la génération précédente.

 

Raison 3. Les entreprises privilégient les investissements dans des marchés générant de fortes marges

Cette orientation est liée aux trois caractéristiques fondamentales d’une innovation disruptive :

  1. Des produits plus simples, moins chers et génèrent moins de marge ;
  2. Les technologies commercialisées d’abord dans les marchés émergents et aux volumes insignifiants ;
  3. Les principaux clients des firmes établies ne veulent généralement pas des produits de l’innovation disruptive. Ils ne peuvent pas les utiliser car ils ne présentent pas encore les niveaux de performance attendus.

 

Les principes / croyance du management classique qui entravent l’innovation disruptive dans l’entreprise

Pour aller au bout de sa démonstration, The innovator’s dilemma liste les cinq principes qui aujourd’hui limitent l’innovation disruptive en entreprise.

 

Principe 1 : Les entreprises dépendent de leurs clients et de leurs investisseurs pour développer leurs ventes et leur rentabilité

Selon ce principe, seul les produits offrant le plus de capacité peuvent satisfaire les clients. De même, seuls ceux générant le plus de marge peuvent satisfaire les investisseurs. L’analyse menée par Clayton Christensen démontre qu’une fois que l’on est engagés dans des marchés à forte marge, il est difficile de justifier des investissements dans des segments à plus faible rentabilité.

Pourtant, la question de l’investissement dans ces technologies finit toujours par se reposer à ces investisseurs et à ces manager. A ce moment là il est généralement trop tard. Les clients ont commencé à migrer vers l’innovation disruptive chez le concurrent et la rentabilité offerte aux entrants tardifs du nouveau marché est bien plus faible.

A l’inverse, des manager qui passent outre ces critères et n’hésitent pas à attaquer les segments à plus faible marge. Ce sont eux qui créent les conditions d’une croissance durable grâce à l’innovation disruptive. Nous verrons dans la deuxième partie que ces manager là tendent à créer des structures chargées de développer une innovation. Celle-ci le fera à l’abri des contraintes de rentabilité.

 

Principe 2 : Les petits marchés ne permettent pas aux grandes entreprises de croître

Les technologies disruptives permettent justement à de nouveaux acteurs du marché d’émerger. Et il est démontré plus tard dans l’étude que les premiers entrants sont ceux qui bénéficient de la plus grosse partie des marges dégagées par le nouveau marché.

La plupart des grandes entreprises adoptent la stratégie du wait and see.

Elles attendent que le nouveau marché soit établi pour monter dans le wagon. Cette stratégie est généralement coûteuse et n’apporte pas les bénéfices qui permettent de maintenir une situation de leader sur son marché. Nous l’avons vu avec Sears.

 

Principe 3 : Un marché qui n’existe pas ne peut pas être analysé correctement

Les principes d’analyse et de prévision d’une innovation disruptive ne peuvent pas s’appuyer sur des données de marché. Des chiffres pour ce type d’innovation peuvent être obtenus, mais ils supposent une démarche expérimentale basée sur des tests et des retours clients.

Mais les manager et les investisseurs rechignent à s’exposer et demandent des chiffres plus généraux avant de lancer ce type d’expérimentation. C’est le serpent qui se mord la queue. L’absence de chiffre et de prévisibilité tétanise les manager et les investisseurs. Il ne peut pas y avoir de prévision de vente, de taille de marché estimée, de chiffre d’affaire prévisionnel. Il ne peut donc pas y avoir d’innovation.

Principe 4 : Les capacités d’une organisation sont aussi ses faiblesses

Pour fonctionner, l’entreprise s’appuie sur deux piliers :

    • Ses processus. Ce sont les méthodes apprises et utilisées par les employés. Elles leurs permettent de transformer le travail, l’énergie, les matières premières, l’information et l’argent en produit à valeur ajoutée.
    • Ses valeurs. Ce sont les critères de priorisation dans la prise des décisions des employés et des managers.

Ces deux piliers permettent à l’entreprise de fonctionner selon les équilibres économiques existants. Néanmoins, il sont extrêmement difficiles à modifier et peinent à prendre en compte des innovations de rupture.

Principe 5 : La nouvelle technologie ne couvrira pas les besoins du marché

Nous avons vu que les capacités techniques d’une technologie finit toujours par excéder la demande d’un marché. Lorsqu’un manager ou un investisseur avance ce principe, il parle en fait d’une capacité réelle qui n’est en fait que partiellement utilisée.

C’est par exemple le cas des voitures aujourd’hui. Les fabricants justifient le maintien du moteur à explosion par le fait que les technologies alternatives ne permettent pas d’atteindre sa vitesse ou son endurance.

Pourtant, la vitesse maximum d’une voiture est depuis très longtemps bien au dessus des besoins réels des conducteurs.

De plus, nous voyons aujourd’hui que les alternatives à la voiture à combustion apparaissent. Elles s’adressent à des niches où le critère d’endurance n’est pas important. Ces usages permettent de développer la véhicule électrique et de créer un nouveau modèle de valeur. Celui-ci supplantera peut-être celui de la voiture à combustion.

 

Première partie : Comment les grandes sociétés échouent à innover ?

The innovator's dilemma

Source : The innovator’s dilemma

 

Chapitre 1 : Comment les entreprises établies ne échouent à innover – L’expérience de l’industrie du disque dur

L’industrie du disque dur a connu d’enormes changements depuis sa création. 17 fabriquants existaient en 1976. Un seul d’entre eux a survécu aujourd’hui, IBM. Ces entreprises étaient pourtant grandes et diversifiées, ce qui n’a pas empêché leur disparition.

Entre 1976 et 2008, 129 autres sociétés ont pénétré ce marché. Seul vingt d’entre elles existaient encore en 2008. A l’exception d’IBM, Fujitsu, Hitachi et NEC, tous les fabricants de disques en 2008 avaient été créées en tant que startup lors des trente dernières années.

Dans son étude Clayton Christensen a ainsi pu mettre en évidence que la baisse rapide du prix de production du mégaoctet de disque n’avait aucun rapport direct avec la survie ou la mort des acteurs de ce marché. Cette baisse de prix permettait une innovation incrémentale à laquelle tous les acteurs en place s’adaptaient de la même façon.

L’essentiel des innovations ont été incrémentales Dans d’autres industries, le même constat peut-être établi. La capacité à s’adapter à un rythme d’évolution technologique n’est pas le critère de maintien ou de disparition d’une entreprise Alors qu’est-ce qui a causé la disparition de 125 acteurs du marché du disque dur entre 1975 et 2008 ?

 

LES INNOVATIONS TECHNIQUES NE SONT PAS DES INNOVATIONS DE RUPTURE.

Les innovations techniques majeures confortent les entreprises établies

Ces innovations technologiques ont pu apparaître comme des innovations de rupture, mais elles ne l’étaient pas nécessairement.

Prenons l’exemple du remplacement de la ferrite par la bande magnétique. Depuis les années 50, on utilisait la ferrite comme matériau pour l’enregistrement de l’information dans les disques durs. En 1968, on apprit que ce matériau allait atteindre rapidement ses limites physiques. A partir des années 70, certains fabricants investirent lourdement et remplacèrent la ferrite par la bande magnétique.

La plupart des fabricants qui décidèrent d’attendre au delà de ce délai disparurent. IBM, Seagate, and Quantum, les premiers à passer à l’enregistrement magnétique se maintinrent et purent poursuivre leur course à l’innovation incrémentale. Les trois entreprises existent toujours de nos jours.

 

Les innovations techniques sont des innovations incrémentales

Il en fût de même, lorsqu’IBM lança le disque à 2,5 pouces dans les années 80. Ce dernier venait offrir une possibilité de stockage supplémentaire pour le marché déjà bien établi des ordinateurs personnels. Il ne répondait pas à un besoin nouveau.

C’était donc une innovation technique incrémentale. Il faut noter que pour ces innovations technologiques, ce sont généralement les firmes qui sont déjà leader qui parviennent à s’imposer. Ces innovations là n’offrent pas de place aux nouveaux entrants.

 

L’INNOVATION DE RUPTURE AU SEIN DU MARCHÉ DU DISQUE DUR

Alors qu’est-ce qui a fait l’innovation de rupture au sein du marché du disque dur ? Clayton Christensen prend l’exemple du PC portable. Ce dernier n’a pas été une innovation disruptive dans le contexte de la production d’ordinateurs. Il avait les mêmes fonctionnalités que le PC et était moins performant. Mais pour le marché du disque dur, la niche du PC portable était une innovation de rupture.

En imposant le standard du disque 3,5 pouces, le PC portable a changé le rapport performance / prix qui cadençait l’évolution du marché du disque dur. Cette innovation a également permis l’arrivée de nouveaux acteurs, un changement dans les hiérarchies précédentes et la disparition de ceux qui n’avaient pas réussi à s’adapter.

 

INNOVATION DE RUPTURE ET MODÈLE DE L’ÉCHEC DANS L’INDUSTRIE DU DISQUE DUR

The innovator's dilemma

Source : The innovator’s dilemma

Dans les années 50, un marché naissant qui se limite au disque 14 pouces

Dans ce schéma, nous voyons comment l’industrie du disque dur a évolué. Quatre standards se sont succédés entre 1974 et 1985. Les disques de 14 pouces créés par IBM à la fin des années 50 étaient adaptés au marché du mainframe. Les acteurs de ce marché ont pu accroître pendant près de dix ans les capacités de ce produit. C’était de l’innovation incrémentale. Les disques de 14 pouces ont fini par dépasser les besoins du marché au moment où Shurgart associates lança le disque 8 pouces en 1973.

Il est intéressant de noter que c’est au sein d’IBM que les premiers prototypes de disques de 8 pouces furent développés. Allan Shurgart, Il souhaitait développer ce nouveau standard pour répondre aux besoins de marchés plus petits que celui du mainframe. Mais IBM refusa de développer ce produit. Il n’intéressait pas ses clients et le prix du mégaoctet pour ce type de modèle était trop élevé.

 

Le disque 8 pouces “disrupte” le marché du disque dur

Avec le lancement du 8 pouces, Shurgart Associates et les autres nouveaux entrants partirent à la recherche de nouveaux clients. Leur produit répondait assez bien aux besoins d’un marché de niche, celui des ordinateurs d’entreprise. Mais ce marché était encore balbutiant.

Le produit entra dans un cycle d’innovations incrémentales (schéma 1.1) et rattrapa très vite les capacités demandées par le marché du mainframe. En effet les disques 14 pouces offraient des capacités excédentaires depuis bien longtemps (cf. schéma 1.7). Grâce à l’innovation incrémentale, le disque 8 pouces était maintenant satisfaisant pour les acteurs du mainframe. Ces innovations incrémentales réduisirent aussi le prix au mégaoctet de ce modèle de disque. La plupart des fabricants de disques 14 pouces furent incapables de s’adapter à temps à l’exception d’IBM. Shugart Associates, Micropolis, Priam et Quantum, les nouveaux entrants devinrent les leaders du marché du disque 8 pouces.

A la fin des années 70, le modèle de l’échec se reproduit.

Seagate lança le disque de 5,25 pouces avec pour cible le marché des ordinateurs personnels. Très vite, le 5,25 pouces devint le standard et rattrapa les capacités demandées par les clients du 8 pouces. A l’exception de Micropolis, tous les fabricants qui avaient lancé le 8 pouce au début des années 70 disparurent.

Au milieu des années 80, le modèle de l’échec se reproduisit encore une fois.

Seagate était devenu leader grâce au 5,25 pouce. Ses ingénieurs proposèrent un disque de 3,5 pouces, de taille plus petite avec un coût au mégaoctet plus élevé. Les responsables de l’entreprise ne virent pas vraiment l’utilité d’une telle innovation.

Cela les amenait à adresser des marchés de niche et à produire avec des marges plus basses. Rodime et Conner lancèrent leur modèle de disque dur de 3,5 pouces. Ces deux fabricants contribuèrent ainsi au développement du marché du PC portable. Seagate s’aligna quelques années plus tard en proposant son modèle de disque dur 3,5 pouces. Mais l’entreprise n’en tira pas de bénéfices comparables à ceux des premiers entrants.

Les firmes établies se retrouvent en queue de peloton d’un marché renouvelé

Les managers de Seagate avaient évalué le disque du de 3,5 pouces selon les critères du marché du 5,25 pouces où ils étaient dominants. L’entreprise préféra attendre de voir si le marché de l’ordinateur portable allait vraiment décoller. Elle craignait également de voir ces nouveaux produits cannibaliser ses ventes de disque 5,25 pouce, marché où elle dominait. Le risque de ce type d’attitude, on l’a vu avec IBM / Shurgart, est que la prophétie se réalise au bénéfice d’un nouvel entrant plus audacieux.

Chapitre 2 : Le value network et l’impossibilité d’innover

Avec cet exemple du marché du disque dur, deux choses sont à signaler au sujet des entreprises leaders sur leur marché :

    • Elles ne parviennent pas à retrouver une vision vers le bas du marché. C’est à dire à considérer les besoins de secteurs de niche alors que c’est cette attitude qui leur avait permis de devenir leader.
    • Elles deviennent prisonnières d’une vision vers le haut du marché. C’est à dire qu’elles ne parviennent plus à analyser les opportunités au delà de l’équilibre produits / marges qu’elles ont construit avec leurs clients actuels.

C’est pour ces deux raisons que les entreprises installées sont donc généralement incapables d’affronter l’innovation de rupture. Cela tient au concept de Value Network.

 

QU’EST-CE QUE LE VALUE NETWORK ?

Le Value Network est, selon l’auteur, le contexte dans lequel une entreprise identifie les besoins de ses clients et y répond. C’est au sein du Value Network que l’entreprise résout ses problèmes, s’approvisionne, réagit au marché et à ses concurrents, etc. En bref, c’est l’environnement dans lequel elle créé et échange de la valeur.

Au sein d’un même Value Networks, il est difficile d’accorder de l’intérêt aux innovations à marges plus basses

Cet environnement va déterminer pour une entreprise les perceptions de la valeur économique des produits, des clients et des marchés. Dans le cas des fabricants de disque dur, cette perception est déterminée par la complexité des produits qu’elles contribuent à créer. Le disque dur est un composant d’un ensemble plus large, l’ordinateur ou le serveur. Le Value Network du disque dur est donc le réseau qui réunit l’ensemble des acteurs qui contribuent à la création des composants et à l’achat de l’ordinateur.

 

Chaque Value Network a son propre niveau de marge ou rapport production / bénéfices

C’est pour cette raison que les marges attendues du disque dur 14 pouces étaient élevés. Elles étaient déterminées par le value network du mainframe. Ce dernier était fondé sur une commercialisation B2B qui autorisait des marges élevées.

Le PC portable a lui un équilibre économique très différent. Il possède son propre Value Network. Ses coûts d’assemblage sont nettement plus importants du fait de leur taille et de leur nombre. De plus, ils sont commercialisés par des réseaux de distribution grand public. Les marges y dépassent rarement 15 à 20%. Les ventes unitaires doivent y être plus élevés que celles du mainframe.

 

Les managers évaluent les innovations au sein d’un value network. Ils peinent à voir leur intérêt dans d’autres value network

C’est ainsi qu’un disque dur est intéressant à améliorer pour un fabricant qui le vend sur le marché du mainframe. Cet environnement offre en effet des marges élevées. A l’inverse cet acteur du marché du mainframe ne voudra pas baisser ses marges pour s’adapter à un autre value network. Il ne perçoit pas les caractéristiques du nouveau marché qu’il adressera. Ses critères de qualification de la valeur sont inadaptés.

Il analysera les attributs d’une innovation de rupture selon les critères de son propre marché. Ceci alors que la value network du produit disruptif n’existe pas encore. Pourtant, une fois que la value network du produit disruptif est créé, elle tend à se développer grâce à l’innovation incrémentale. En se développant, elle absorbe la value network du produit de la génération précédente.

Dans cette nouvelle value network, les nouveaux entrants ont des produits plus performants, plus pratiques, moins chers. Ils répondent également aux besoins d’un plus grand nombre de marchés. Les anciennes firmes établies sont réduites à un segment du nouveau marché avec un produit moins performant. Elles semblent donc condamnées à disparaître.

 

Y a t’il un moyen d’éviter cette trajectoire ?

Oui, mais à deux conditions :

  • Connaître les règles d’évolution technologique incrémentale et ses limites ;
  • Identifier les blocages dans le passage vers une technologie disruptive.

 

COURBE EN S ET VALUE NETWORK

The innovator's dilemma

Source : The innovator’s dilemma

Chaque innovation technologique incrémentale a une courbe de développement en S. Sa progression est lente à son démarrage, puis une fois que la technologie est comprise, maîtrisée et diffusée, sa performance technique s’améliore. C’est à ce moment que le cycle d’innovation incrémental est le plus bénéfique. En pleine maturité, la technologie atteint de façon asymptotique ses limites physiques. A ce moment là, les améliorations des capacités du produit deviennent trop coûteuses par rapport aux bénéfices attendus. Il devient donc souhaitable de mettre un terme à ces innovations incrémentales et switcher vers une technologie disruptive. Celle-ci redonnera une marge d’innovation incrémentale avantageuse.

Mais les entreprises n’y parviennent que très rarement. Pourtant, ce sont souvent elles qui sont parvenu à développer des prototypes potentiellement disruptifs. The innovator’s dilemma détaille les sept étapes qui amènent les manager à subir l’innovation disruptive.

 

LES ETAPES DU DÉVELOPPEMENT D’UNE TECHNOLOGIE DISRUPTIVE AU SEIN DE L’ENTREPRISE

Etape 1 : Une technologie disruptive est développée au sein de l’entreprise

Un prototype potentiellement innovant est développé au sein de l’entreprise. Souvent dans un coin et avec les moyens du bord. La décision de le réaliser provient généralement d’un opérationnel et pas du management.

Par exemple, les équipes de Seagate ont proposé à leur management un disque dur de 3,5 pouces à leur management en 1985. Seagate était leader du marché du disque dur à ce moment là, grâce au disque du de 5,25 pouces.

 

Etape 2 : Les équipes marketing testent les réactions auprès de leur clientèle

Les tests du produit innovant sont fait au sein du value network de l’entreprise établie. Or la particularité d’un produit disruptif est justement de créer un nouveau value network.

Ainsi, les marketeurs de Seagate décidèrent de tester le prototype auprès de la branche PC d’IBM. Le disque avait des capacités trop faibles pour ces derniers. Le marketing jugea donc qu’il n’y avait pas d’intérêt client pour ce produit.

Dans l’esprit des manager de Seagate, ce qu’il leur fallait, c’était un produit qui connaisse le même succès que le modèle vedette de la marque. Ce disque dur de 5,5 pouces nommé ST412 générait alors 300 millions de dollars dans un marché du PC en fin de cycle.

 

Etape 3 : Les managers décident de poursuivre la course à l’innovation technologique incrémentale

Ne sachant pas comment mesurer les performances promises par les produits innovants, les managers renoncent à le développer. Ils s’acharnent à améliorer leur technologie actuelle.

Seagate renonça donc à se lancer dans le marché du 3,5 pouces. Le marché potentiel d’un tel produit était incertain. De plus, le coût de production au mégaoctet était jugé trop élevé.

En effet, les marges des produits de la marque oscillaient entre 35 et 40 %. Avec le petit disque de 3,5 pouces, elle tombait à 25 et 30 %. Cet investissement technologique n’avait donc aucun sens pour Seagate. Et Seagate prit la décision de poursuivre les améliorations de son produit actuel même si celui-ci avait atteint le haut de sa courbe en S. C’est à dire, qu’il commençait à approcher les limites physiques de son potentiel d’amélioration.

 

Etape 4 : De nouvelles sociétés apparaissent et les marchés clients de l’innovation disruptive se consolident

Dans ces situations, les employés qui n’ont pas pu faire valoir les avantages de leur prototype démissionnent et créent une société concurrente. Par exemple, les fondateurs de Conner Peripherals, étaient d’anciens employés de Seagate et Miniscribe soutenus par le fabricant de PC Compaq.

 

Ces startups créées, elles partent à la recherche de nouveaux clients pour leur produit. Leur innovation ne répondent pas à des besoins clients identifiés.

Déjà, quand Seagate a créé le disque à 5,25 pouces une génération avant, l’ordinateur personnel était un hobby de geeks isolés. Seagate avait donc contribué à créé le marché. Au lancement du disque de 3,5 pouces, il en fût de même, il n’y avait pas de marché. Le premier PC d’IBM ne fut créé que deux ans plus tard.

De même, Compaq n’avait pas encore mis au point son premier PC portable lorsqu’elle décida d’investir dans Conner. Conner n’a donc pas développé le disque de 3,5 pouces dans le but de le vendre à Compaq. Comme tout nouvel entrant, l’entreprise n’avait pas de stratégie marketing claire à son lancement.

 

Etape 5 : Les nouveaux entrants finissent par faire évoluer leur offre vers le haut.

Les nouveaux entrants font évoluer les capacités techniques de leur produit rapidement. Ils entament un cycle d’innovation incrémentale qui les amènent à faire croître les capacités de leur produit plus vite que le besoin de leur marché. Ils peuvent dès lors viser les segments de marché plus gros où les marges sont plus élevés. De plus, les innovations incrémentales ont rendu le produit plus performant, moins cher et plus simple que son concurrent de la génération précédente.

 

Etape 6 : Les firmes établies grimpent en queue de wagon du nouveau train en tentent désespérément de défendre leur clientèle

A ce moment, la nouvelle architecture est pleinement compétitive. Elle est plus intéressante que le produit d’ancienne génération. L’innovation incrémentale du nouveau produit lui permet d’engager la bataille avec un rapport prix / performance supérieur au modèle d’ancienne génération. Les firmes établies n’ont pas d’autres choix que de proposer un produit de nouvelle génération. Ce dernier va lui-même cannibaliser les ventes de l’ancienne génération de produit et dégrader les marges de l’entreprise.

 

Les points clé du value network

  1. Le contexte de création de valeur (value network) a une influence profonde dans la façon dont une entreprise voit les opportunités, engagent des ressources et développe ses technologies. Les entreprises identifient ainsi les opportunités de leur produit sur des critères uniques de performance. Ces critères sont partagés par tous les acteurs au sein du même value network. Elles ne sortent donc pas de leur frontière.
  2. Les entreprises au sein de ce value network ne tendent à voir que les clients au sein de ce même value network. Pour investir dans leur innovation, elles tendent à se borner aux besoins de ces clients.
  3. Les firmes établies qui décident d’ignorer les technologies dont leur client n’ont pas besoin finissent par se mettre en risque. Cela arrive les améliorations d’un produit innovant moins performant à ses débuts finit par couvrir les besoins de ses propres clients.
  4. Les nouveaux entrants prennent l’avantage sur les firmes établies. Le drame des firmes établies est qu’elles perdent leur client. Cela se produit exactement pour les raisons qu’elles avaient évoqué en écartant une innovation qui ne semblait pas répondre à un besoin client à ses débuts. Leur produit est maintenant plus coûteux et moins performant.
  5. Les nouveaux entrants deviennent des firmes établies dans ce nouveau Value Network. Un nouveau Value network est créé avec les anciennes firmes établies qui ont réussi le passage vers la nouvelle technologie, un nouveau le nouveau Value network.

Ce modèle est-il applicable à d’autres industries ? Le livre propose de le tester dans l’industrie de l’excavation mécanique.

 

Chapitre 3. Disruption dans l’industrie de l’excavation mécanique

Le dilemme de l'innovateur

Licence Creative Commons – Credits Slava Evzhenkov

LE MARCHÉ DE L’EXCAVATION AVANT LES ANNÉES 70

Un marché concentré sur les grands chantiers

Clayton Christensen cherche ensuite à vérifier si ce modèle de l’échec et cette incapacité à sortir de son value network se vérifie dans d’autres industries. Il reprend son analyse en l’appliquant au secteur de l’excavation. Jusque dans les années 60, ce marché était dominé par les fabricants de grues d’excavation à diesel.

Celles-ci étaient raccordées à un corps peu mobile et disposaient de très grands sceaux capable d’extraire d’énormes volumes de terre. L’extraction avec des machines hydraulique s’est rapidement substituée à l’excavation diesel dans les années 70.

 

Apparition de l’excavation hydraulique

Toutes les firmes qui avaient dominé l’ingénierie de l’excavation dans les années d’après-guerre ont disparu à ce moment là. L’ensemble des acteurs qui dominent ce secteur sont les entreprises qui attaquèrent ce marché dans les années 70. L’exemple de la technologie hydraulique tend donc à confirmer notre hypothèse.

Les acteurs dominants se révèlent incapables d’envisager la disruption. Ils reproduisent le modèle de l’échec.

    • Acteurs établis : Insley, Koehring, Little Giant, and Link Belt
    • Nouveaux entrants : J. I. Case, John Deere, Drott, Ford, J. C. Bamford, Poclain, International Harvester, Caterpillar, O & K, Demag, Leibherr, Komatsu, and Hitachi
L’excavation diesel domine le marché

Les engins d’excavation sont nécessaires à l’essentiel des chantiers. Aujourd’hui, nous les rencontrons aussi bien dans les petits chantiers privés que dans les grands ouvrages. Dans les années 45-60, ce matériel était essentiellement utilisé dans les très grands chantiers. Voici les trois cas d’usages principaux :

    • Le BTP : terrassement, creusement de fondations pour des immeubles, etc.
    • Le génie civil : le creusement de canaux, l’enfouissement de pipelines, etc.
    • Le creusement des mines.
Les capacités du diesel excèdent la demande

Les performances de forage et d’excavation demandées par ces acteurs étaient très élevées. C’est ainsi que le matériel avait fini par s’imposer car il possédait la plus grande force de traction des immenses seaux remplis de terre.

Pour les acteurs de ce marché la performance de leur matériel se mesurait en quantité chargée par seau.

L’émergence de la technologie de l’excavation hydraulique et sa trajectoire d’amélioration La première machine hydraulique fut produite par une entreprise britannique, J.C. Bamford en 1947. Elle fût suivie par plusieurs entreprises américaines qui commercialisèrent leur modèle hydraulique à la fin des années 40. La capacité de leurs seaux était très faibles et la profondeur atteinte aussi.

Avec la technologie hydraulique, les nouveaux entrants ciblent les marchés de niche

Du fait de ces limitations, les nouveaux entrants durent rechercher d’autres marchés que ceux cités plus haut. Les nouveaux entrants associèrent leur machine à excavation à des tracteurs et ciblèrent les petits chantiers et les agriculteurs. Ces derniers avaient des besoins d’excavation nettement moins profonds que ceux des usagers d’excavateurs diesel. Ils commercialisèrent leurs produits par les réseaux de distributions habitués à adresser cette petite clientèle.

Ces petits clients et leur réseaux de distribution constituèrent le value network de l’excavation hydraulique. Mais pour que cette technologie devienne réellement disruptive, il fallait qu’elle se substitue à l’ancienne.

On retrouve dans ce schéma l’amorce de courbe en S décrite plus haut.

Innovation incrémentale dans les technologies d’excavation hydraulique

L’excavation hydraulique connut un démarrage lent. La capacité des seaux sur ces machines restait donc très en dessous des de la demande moyenne du marché de l’excavation.

Puis les améliorations incrémentales successives permirent à cette technologie de rattraper la demande moyenne du marche. Le matériel qui avait été développé durant quinze ans était devenu plus léger, plus maniable et pratique. Il avait surtout atteint le niveau de performance que souhaitaient la plupart des clients.

La performance des machines diesel elle dépassait depuis longtemps cette demande des clients. Mais ces derniers ne souhaitaient plus payer pour des capacités excédentaires qu’ils n’utiliseraient pas. Par ailleurs les produits diesel n’avait pas bénéficié des innovations apportées par l’hydraulique (rotation 360 et mobilité).

La réponse des entreprises établies confrontées à la technologie hydraulique

En 1951, le leader du marché de l’excavation Diesel, Bucyrus, tenta de s’adapter. Il proposa un modèle hydraulique à deux cylindres au lieu de trois. L’un pour la rotation, l’autre pour l’articulation du bras. La levée du seau était toujours assurée par un moteur diesel.

Le modèle était donc un hybride. Il fût baptisé Hydrohoe (Houe hydraulique). L’entreprise tenta de le commercialiser auprès de son propre Value Network. Ce fut un échec, car il ne répondait pas à leurs besoins.

Dans les années 60, d’autres entreprises établies tentèrent de se lancer dans les machines à l’excavation hydraulique. Toutes proposèrent des modèles hybrides au sein de leur value network. Tous leurs clients jugèrent le produit limité.

REPRODUCTION DU MODÈLE DE L’ÉCHEC

Comme pour l’industrie du disque dur, les entreprises établies on reproduit les deux erreurs suivantes :
    • S’adresser à leurs propres clients pour valider le besoin d’une innovation disruptive ;
    • Ignorer les besoins d’autres marchés perçus comme des niches. Ces derniers disposent d’un potentiel non exploité, de leur propres logiques de distribution et d’un rapport coût / bénéfices différent.

Les nouveaux entrants ont développé leur produit à partir de ces nouveaux marchés. Ils ont progressivement comblé l’écart entre les capacités de l’hydraulique et la demande de performance réelle de l’ensemble du marché.

Le marché du diesel absorbé par celui de l’hydraulique

Elles ont ainsi constitué leur propre value network et absorbé le value network des firmes établies. A l’exception du creusement des mines, les machines à excavation diesel n’avaient plus d’intérêt pour les clients.

Les entreprises établies n’ont pas échoué par arrogance, mépris ou incompétence. Quand la question s’est posée, elles ont pu proposer des produits à technologie hydraulique. Technologiquement, elles étaient donc en mesure de s’adapter.

Elles ont été incapables de sortir de leur value network et d’envisager une clientèle hors de leur marché. L’hydraulique n’avait aucun sens pour elles jusqu’à ce qu’il soit trop tard.

Ceux qui évoluent vers le haut ne parviennent pas à redescendre

Un autre phénomène explique également cette incapacité à affronter l’innovation de rupture. L’auteur l’appelle la migration vers le nord-est. Il s’agit en fait de l’attrait des compagnies vers le haut du marché. C’est à dire là où les capacités demandées sont élevées et où les marges sont plus hautes.

En procédant de la sorte, les nouveaux entrants délaissent le segment qui leur avait permis de s’établir. Les manager et investisseurs valorisent d’ailleurs fortement ce changement de segment client. A l’apparition d’une innovation disruptive, cette stratégie s’avère pourtant funeste.

Chapitre 4. La migration vers le nord-est

Le dilemme de l'innovateur

The innovator’s dilemma

Partir vers le nord-est où les marges sont plus belles

SEAGATE PART À LA RECHERCHE DE CLIENTS PLUS RENTABLES

Nous voyons dans le schéma ci-dessus (4.1) que Seagate illustre parfaitement ce schéma de migration nord-est. Ainsi, sa première génération de produit disposait d’une capacité moyenne qui répondait aux besoins des ordinateurs personnels.

Mais dans les années 90, la capacité moyenne des produits vendus par Seagate augmenta pour s’adapter aux besoins de segments professionnels. Ces derniers offraient de meilleures marges.

Le choix entre des marges plus élevées et la disruption vers des segments moins rentables

Cette situation obéît à un scénario général. Tous les acteurs du marché s’engagent dans ces mouvements attirés par les marges plus élevées. Ils y investissent de la recherche, du marketing, de l’administratif afin de rester compétitifs.

Voici donc le choix auquel ces entreprises se retrouvent confrontées :

    • Suivre la disruption et se lancer dans un produit aux marges plus faibles
    • Investir dans un segment client aux marges plus élevées
En général, les managers choisissent toujours les segments clients les plus rentables, au détriment de l’innovation de rupture

C’est le choix qui s’est présenté à IBM avec le disque dur 8 pouces. C’est aussi celui qui s’est présenté à Seagate lorsque ces ingénieurs lui ont présenté un prototype de 3,5 pouces. Les fabricants de disque 8 pouces devaient choisir entre

    • lancer un produit qui dégraderait leur marge de 15 points
    • investir auprès de clients qui leurs promettait vingt points de marges supplémentaires.

Dans le marché du disque dur, les managers ont donc systématiquement choisi la deuxième option. Elle leur paraissait rationnelle au sein de leur value network. Ces entreprises qui étaient des nouveaux entrants sont devenues alors des entreprises établies. Cette situation les a coupé de leur attitude disruptive initiale qui supposait au contraire une mobilité vers le bas.

La mobilité vers le haut rend donc la disruption dangereuse pour les entreprises qui y sont confrontées.

LA LOGIQUE DE L’ALLOCATION DES RESSOURCES POUR LES ENTREPRISES EN MOBILITÉ ASCENDANTE

L’allocation de ressources favorise la mobilité ascendante au détriment de la disruption

Cette mobilité vers le haut est favorisée par des modèles d’allocations de ressources au sein des entreprises.

    • Dans le premier modèle, le processus d’allocation de ressources est rationnel. C’est un processus de décision dans lequel les managers arbitrent les propositions d’allocation. Celles qui sont cohérentes avec la stratégie et promettent un retour sur investissement sont conservées. Les autres sont éliminées.
    • Le second modèle a été décrit par Joseph Boyer, un collègue Clayton Christiansen à Harvard. Ce dernier note que toutes les propositions d’innovation de rupture viennent du bas de l’entreprise, jamais du haut. Le middle management joue alors un rôle critique. Ces derniers doivent filtrer les projets. Les évolutions de carrière des managers ont lieu quand ces derniers font réussir des projets. Leur carrière déraille lorsqu’ils échouent. Ces derniers tendent donc à choisir des projets et à les packager de façon à ce qu’ils leur permettent de réussir.

C’est dans ce second modèle que l’innovation est possible. Mais comparons maintenant deux situations :

Le marketeur présente son projet d’innovation incrémentale

Un marketeur présente son projet de développement d’un nouveau segment de clientèle. Pour l’atteindre, il propose d’augmenter les capacités du produit. En repartant de l’historique, il démontrera que son projet permettra d’améliorer les ventes et la marge de son entreprise. Par ailleurs, il aura déjà validé ses hypothèses de vente auprès de client pilotes et parfois enregistré les premières commandes. Le projet est prêt à être lancé dès validation par le management.

L’ingénieur échoue à défendre l’innovation disruptive

L’ingénieur présente son idée d’innovation. Il n’a pas de marché à présenter. Il ne sait pas estimer le potentiel de son innovation. Cette dernière n’a pas de cas d’usage à offrir qui pourrait servir de référence. Toutes ses hypothèses sont basées sur des hypothèses non vérifiées. Ses retours clients sont souvent faiblement qualifiés.

L’entreprise finit toujours par privilégier les revenus à court terme

Le premier projet sera donc choisi par le management de l’entreprise. En primant les revenus à court terme et la marge, l’organisation entière qui ne permet pas de porter l’innovation disruptive. Parfois, un senior-manager fait le choix d’une innovation disruptive. Même dans ces cas, l’organisation tend à la rejeter car elle n’apportera pas les résultats attendus d’ordinaire par les individus : de la marge, du revenu et des carrières réussies. Dans le débat interne sur l’allocation de ressources, le choix de l’innovation de rupture est donc souvent perdant.

L’EXEMPLE DE L’INDUSTRIE DU DISQUE DUR D’1,8 POUCES

Une disruption en apparence ratée

Clayton Christensen raconte également l’histoire du disque dur d’1,8 pouces. Il visita une entreprise qui l’avait lancé en 1993 en espérant disrupter le marché. En 1994, ses dirigeants confièrent à Clayton Christiansen que ce produit n’avait pas de clientèle. Même si le produit s’améliorait rapidement, aucun des fabricants de PC portable n’en voulait.

 

Les clients n’étaient pas là où on les attendait

Pourtant, quelques mois plus tard, un de ses étudiants fit une présentation en utilisant un document stocké dans une petite boite noire reliée à son ordinateur.

Clayton Christensen lui demanda de quoi il s’agissait. L’étudiant lui répondit qu’in s’agissait d’un disque nomade d’1,8 pouces fabriqué par une petite startup du Colorado.

Ainsi, nous avons ici un encore un problème du développement vers le nord-ouest. La grande entreprise avait à sa disposition la même technologie que la startup. Pourtant, c’est la startup qui a été à la recherche du nouveau segment de clientèle.

 

La recherche de marges élevées ne permet pas la disruption

La grande entreprise n’était donc pas capable d’imaginer une application dédiée à un segment où les marges seraient plus fables et les volumes plus élevés. Elle persistait à envisager l’usage de son prototype dans un secteur où les marges étaient trop élevées pour lui permettre de percer.

LA MIGRATION VERS LE NORD-EST DE L’INDUSTRIE SIDÉRURGIQUE

The innovator's dilemma

Nucor Steel Mill, Luna Park, West Seattle – Auteur : Gary Lund – Licence Creative Commons

Les petites aciéries (minimills), rentables dès les années 60

L’industrie des petites aciéries (Minimills) est devenue viable au milieu des années 60. Ces petites aciéries permettent de produire du métal à un coût intéressant à des volumes dix fois plus bas que celui des grandes aciéries intégrées. L’échelle de production est la seule différence. La contrainte de production continue basée sur un feu permanent est la même dans les deux systèmes de production.

 

Une activité marginale et deconsideree

En 1995, la petite aciérie la plus efficace nécessitait en moyenne 0,6 heures de travail par tonne d’acier. La plus efficace des grandes aciéries intégrées en nécessitait 2,3.

Par conséquent, les petites aciéries sont passées de moins de 1% en 1965 à plus de 40% en 1995. En 2015, elles représentaient 70% de la production d’acier aux Etats-Unis.

Toutefois, en 2008, Clayton Christensen notait qu’aucune grande aciérie n’avait encore choisi d’utiliser la technologie des minimills aux USA. Ceci malgré un contexte de déclin général de la production d’acier aux Etats-Unis avec la fermeture d’un grand nombre de sidérurgistes intégrés.

Pourtant, ce n’est pas le cas dans d’autres pays où les grands fabricants ont investi. Par exemple, Nippon Steel, Kawasaki / NKK au Japon, British Steel, Hoogovens (Tata Steel) en Europe et Pohang Steel en Corée ont investi dans les petites aciéries.

 

Les grands sidérurgistes délaissent le métal de moindre qualité et les clients les moins rentables

A leur lancement dans les années 60, les minimills offraient un produit de plus faible qualité que les grands sidérurgistes. Elles se spécialisèrent donc dans l’acier d’armature. En matière de qualité de produit, cet usage tolérait une lus grande quantité d’impuretés dans le métal. Les grandes aciéries furent contentes de se débarrasser de la clientèle de l’acier d’armature. Elle était peu rentable.

Les minimills rentabilisèrent ce segment en réduisant leurs coûts : vente par téléphone, pas de stock, pas de R&D, peu de management. Puis elles améliorèrent la qualité de leur acier et produisirent des pièces plus grosses et plus variées (barres, tiges et cornières).

 

Les minimills poussées par des investissements agressifs

En 1980, les minimills possédaient 90% du marché des armatures et 30 du marché des barres, tiges et cornières. Puis au milieu des années 80, Nucor et Chaparral, les deux plus agressives de ces entreprises se lancèrent dans la production de poutres de structure. En 1995, Bethleem fermait la dernière ligne de production de poutres dans une grande aciérie aux Etats-Unis laissant le champ libre aux minimills.

 

Les managers des grandes aciéries privilégient l’innovation incrémentale

Le déclin des grandes aciéries intégrées trouve aussi son origine dans les choix réalisés par ses managers.

Ainsi, en 1985, alors qu’elles abandonnaient les secteurs les moins rentables aux minimills, les grandes aciéries se spécialisèrent dans la production de grandes feuilles d’acier. Ces dernières étaient utilisées pour produire des canettes, des pièces d’automobiles ou d’électroménager. En faisant ce choix, elles se spécialisaient sur des clients à forte marge. De plus la petite taille des minimills ne leur permettait pas d’affronter les grands sidérurgistes sur ce segment. De même, les outils de production requis nécessitaient des investissements qui étaient hors de portée de minimills.

En d’autres termes, les grandes aciériers ont migré vers le nord-est de leur value network.

Ces investissements fructueux furent salués en leur temps car le ROI semblait alors évident. D’ailleurs, la capitalisation de l’un des leaders des grands sidérurgistes, Bethleem Steel grimpa de 175 millions de dollars en 1986 à 2,4 milliards en 1989.

The innovator's dilemma

The innovator’s dilemma

Les grands sidérurgistes passent à côté d’une innovation majeure

Mais une innovation disruptive allait mettre fin à ce monopole des grandes aciéries dans la production des grandes feuilles de métal.

Dans ces mêmes années, Schloemann-Siemag AG, une entreprise allemande, lança une nouvelle technologie.

Celle-ci qui permettait de produire des dalles minces à partir d’une coulée de métal (cf. photo). Le métal de faible épaisseur était ensuite enroulé sans refroidissement dans un moulin. Ce procédé avait plusieurs avantages :

    • D’abord, l’investissement nécessaire à la mise en place de ce procédé était de 250 millions de dollars. Ce montant était dix fois moins élevé que l’investissement nécessaire au procédé utilisé dans les par les grands sidérurgistes.
    • Ensuite, ce procédé permettait aussi de réduire la production des bobines de feuilles de métal de 20%.

Mais, la technologie de Schloemann-Siemag AG avait aussi un inconvénient à ses début. En effet, le métal produit selon ce procédé ne permettait pas de proposer une surface sans défaut.

 

Les minimills à la recherche de clients à forte marge

Toutefois, les grands sidérurgistes évaluèrent l’opportunité d’utiliser le procédé de Schloemann-Siemag AG. Mais l’absence de défaut posait problème à certains clients. Par conséquent, ils renoncèrent à changer d’outil de production. Ils continuèrent d’ailleurs à investir dans l’ancien procédé.

En parallèle, Nucor, un des principaux acteur des minimills s’appropria le procédé en premier à la fin des années 80. En effet, cette entreprise n’était pas encombrée par les demandes de l’industrie automobile ou celle de l’électroménager. Ainsi, les minimills entamèrent leur migration vers le nord-est de leur value network.

Conclusion de la première partie de

The innovator’s dilemma

Finalement, l’histoire de l’innovation dans l’industrie sidérurgique est semblable celle du disque dur.

Elle est faite d’investissements agressifs, de décisions rationnelles, de migration vers des segments clients rentables et de recherche de marges. Les acteurs de ces industries ont tous été confrontés au même dilemme de l’innovateur.

Donc, si les décisions managériales sont à l’origine du déclin des grands acteurs, quel management peut permettre l’innovation disruptive. C’est ce que nous verrons dans la deuxième partie de “The innovator’s dilemma”.

 

Le livre :

 

L’auteur de The innovator’s dilemma

  • Clayton M. Christensen est professeur à Harvard et spécialiste de l’innovation. Son livre “The innovator’s dilemma” est devenu l’ouvrage de référence pour comprendre quelles sont les dynamiques de l’innovation.

 

Sources complémentaires