The innovator’s dilemma – Première partie

By Lotfi BENYELLES

The innovator's dilemma

The Innovator’s dilemma (Le dilemme de l’innovateur – 1997 – non traduit) est le premier livre de Clayton Christensen.

Le livre analyse les raisons qui amènent les entreprises leaders à perdre progressivement leur position sur un marché. Il s’agit généralement d’entreprises bien managées. Leurs marges sont élevées et en général, les investisseurs se ruent sur leurs actions. Les clients aussi manifestent leur confiance en renouvelant leurs commandes.

Pourtant, pendant ce temps, un compétiteur marginal intègre le marché. Contrairement à l’entreprise leader, il arrive avec un proposition de produit plus simple. Celle-ci est destinée à un segment de clientèle délaissé. Généralement, son offre est plus coûteuse à produire et ses marges sont donc plus basses. Finalement, son offre s’impose et entraîne un changement dans la configuration du marché.

The Innovator’s dilemma est un livre particulièrement bien écrit et agréable à lire. Aucun autre livre ne détaille aussi bien les mécanismes d’une innovation disruptive. Il donne ainsi des clés de lectures indispensables pour la compréhension de l’innovation et du cadre général dans lequel les startup interviennent.

 

Introduction

Au début des années 50, Sears est devenu leader de la grande distribution aux Etats-Unis. L’entreprise apportait un lot d’innovations dans le secteur qui sont aujourd’hui des fondamentaux du métier.

 

L’âge d’or de Sears et du mainframe

Elle rationalisa d’abord sa chaîne d’approvisionnement. Puis elle créa un catalogue annuel gratuit qui permettait au client de faire ses choix avant de se déplacer en magasin. Ensuite, elle inventa le concept de marque distributeur. Enfin, elle autorisa l’achat à crédit, ce qui augmenta significativement son volume de chiffre d’affaire.

Ainsi, à la fin des années 60, l’image de Sears était communément associée à la nouveauté et au dynamisme.

Pourtant, de nos jours en Amérique du nord, plus personne ne présente Sears comme une entreprise innovante. Au contraire, l’entreprise a raté l’ensemble des grandes évolutions du secteur depuis les années 70.

 

Les grandes surfaces innovent dans les années 70

D’abord, elle comprit trop tard l’intérêt des grandes surfaces dans les années 70. De même, elle passa complètement à côté de la distribution par internet dans les années 2000. Alors qu’elle était dominante en Amérique du nord et en Amérique latine, elle est aujourd’hui confinée aux Etats-Unis.

Mais le plus troublant est que le marché de Sears a changé au moment même où son histoire devenait une success story, vers 1965. Au moment où les premiers hypermarchés et le hard discount sont apparus.

The innovator's dilemma

Cataloque Sears – Page jouets

Les acteurs du mainframe ratent l’émergence du PC

De même, la branche d’IBM qui dominait le marché du mainframe est passée à côté du marché du PC. D’ailleurs, aucun des concurrents d’IBM dans le mainframe n’a réussi ce passage vers le monde du PC. Ce raté a ouvert la brèche pour de plus petits acteurs tel Commodore, Apple ou Tandy.

En fait, la maison mère d’IBM n’a pas réellement raté ce passage. D’abord, elle constata l’incapacité de ses équipes à proposer des ordinateurs légers. Elle autorisa en conséquence la création en son sein d’une petite startup, IBM PC. Celle-ci eut l’autorisation d’entrer en concurrence avec les activités de sa maison mère.

 

Les clients et les investisseurs freinent l’innovation disruptive

Des investisseurs que l’on cherche à satisfaire à court terme

En 1986, le DG de DEC annonçait fièrement à ses investisseurs que son entreprise était leader d’un marché rentable à la croissance vertigineuse.

Pourtant quelques années plus tard dans la presse, le nom de DEC était généralement associé aux mots restructuration, plan de relance, échec, faibles marges et promesses non concrétisées.

Les exemples d’échec d’entreprises leaders et innovantes en leur temps sont nombreux : Xerox, Digital, HP, etc. Certaines ont connu l’échec avant de se reprendre comme Apple.

 

Des managers qui ont trop écouté leurs clients

En fait, ces entreprises étaient parfaitement bien managées. Elles écoutaient leur client, investissaient massivement, disposaient de personnel compétent. C’est justement ce qui les a mené à la perte de leur leadership.

Face à une innovation disruptive il convient justement de ne plus écouter ses clients, d’investir dans des produits à faible performance, fournissant des marges plus basses et ciblant des petits marchés plutôt que des gros.

Pour en faire la démonstration, Clayton Christensen commence par poser plusieurs idées qui nous éclairent se le dilemme de l’innovateur.

 

Le rôle de la technologie

La technologie est ce qui permet de transformer le travail, les organisations et l’information en services à grande valeur ajoutée. Sears employait par exemple une technologie particulière pour acheter, présenter et vendre ses produits.

Ses concurrents comme Costco employaient une technologie différente. Cette technologie implique des manières de faire propres à l’entreprise : c’est à dire manière bien précise de faire de l’ingénierie, du marketing ou de s’organiser. L’innovation de rupture ou disruptive va consister à remettre en cause une des ces trois manières de faire.

 

Le dilemme de l’innovateur

Par conséquent, Clayton Christensen va chercher à détailler les mécanismes de l’innovation de rupture à l’origine du dilemme de l’innovateur. En effet, dans une entreprise, le manager doit simultanément :

    • Continuer à développer à court terme le business établi d’où provient la rentabilité ;
    • Mettre à disposition les ressources adéquates au développement une technologie nouvelle. Celle-ci vise à terme à remplacer le business actuel dont l’entreprise tire pourtant toute sa rentabilité.

Le modèle de l’échec

Or, en règle générale, le manager privilégie toujours la première orientation. C’est à dire la rentabilité à court terme.

Voici comment l’industrie du disque dur illustre ce tropisme. En effet, celle-ci a connu six innovations de rupture dans le trente dernières années. Pourtant, ce n’est qu’à deux reprises seulement que le leader du marché n’a pu maintenir sa position avec la généralisation de produit suivante.

Par conséquent, Clayton Christensen souligne qu’il y a bien un modèle de l’échec (failure framework). Il identifie trois raisons qui mènent le management classique à échouer en cas d’innovation disruptive.

 

Raison 1 : L’absence de distinction entre innovation disruptive et innovation incrémentale

La plupart des innovations sont en réalité des améliorations incrémentales des performances d’une technologie existante.

Ce sont les innovations incrémentales. Ces dernières permettent d’améliorer les produits existants. Le fabricant cherche ainsi à augmenter la valeur perçue du produit par les clients traditionnels.

 

Une technologie disruptive apparaît plus rarement.

Elle correspond à un changement dans la proposition de valeur qui fait référence sur le marché.

Généralement, le nouveau produit est moins performant. Mais il propose des fonctions auquel un public nouveau (ou écarté) accorde de la valeur.

En résumé, les produits basés sur une innovation de rupture sont moins chers, plus simples et souvent plus pratiques à utiliser.

 

Certaines innovations peuvent-être incrémentales dans certains secteurs et disruptives dans d’autres

Par exemple, la généralisation de la fibre est une innovation incrémentale pour les opérateurs téléphoniques. Par contre, elle est disruptive pour les industriels de la télévision.

En effet, elle remet en cause leur stratégie de distribution de contenus en ouvrant un nouveau canal de distribution et en changeant les règles de tarification du secteur.

 

Raison 2. Le progrès technique fait oublier quels sont les besoins clients

Dans leur effort habituel pour multiplier les innovations incrémentales, les entreprises finissent par proposer des produits qui dépassent les attentes.

The innovator's dilemma

Source : The innovator’s dilemma

C’est ce que nous voyons dans le schéma I.1. Dans cette course à l’innovation incrémentale, les produits proposés peuvent ainsi devenir également plus chers que ce que le client peut payer.

C’est cette situation qui permet à une innovation disruptive d’être lancée en proposant des produits aux performances en deçà de ceux de la génération précédente.

 

Raison 3. Les entreprises privilégient les investissements dans des marchés générant de fortes marges

Cette orientation est liée aux trois caractéristiques fondamentales d’une innovation disruptive :

  1. Des produits plus simples, moins chers et génèrent moins de marge ;
  2. Les technologies commercialisées d’abord dans les marchés émergents et aux volumes insignifiants ;
  3. Les principaux clients des firmes établies ne veulent généralement pas des produits de l’innovation disruptive. Ils ne peuvent pas les utiliser car ils ne présentent pas encore les niveaux de performance attendus.

 

Les principes / croyance du management classique qui entravent l’innovation disruptive dans l’entreprise

Pour aller au bout de sa démonstration, The innovator’s dilemma liste les cinq principes qui aujourd’hui limitent l’innovation disruptive en entreprise.

 

Principe 1 : Les entreprises dépendent de leurs clients et de leurs investisseurs pour développer leurs ventes et leur rentabilité

Selon ce principe, seul les produits offrant le plus de capacité peuvent satisfaire les clients. De même, seuls ceux générant le plus de marge peuvent satisfaire les investisseurs. L’analyse menée par Clayton Christensen démontre qu’une fois que l’on est engagés dans des marchés à forte marge, il est difficile de justifier des investissements dans des segments à plus faible rentabilité.

Pourtant, la question de l’investissement dans ces technologies finit toujours par se reposer à ces investisseurs et à ces manager. A ce moment là il est généralement trop tard. Les clients ont commencé à migrer vers l’innovation disruptive chez le concurrent et la rentabilité offerte aux entrants tardifs du nouveau marché est bien plus faible.

A l’inverse, des manager qui passent outre ces critères et n’hésitent pas à attaquer les segments à plus faible marge. Ce sont eux qui créent les conditions d’une croissance durable grâce à l’innovation disruptive. Nous verrons dans la deuxième partie que ces manager là tendent à créer des structures chargées de développer une innovation. Celle-ci le fera à l’abri des contraintes de rentabilité.

 

Principe 2 : Les petits marchés ne permettent pas aux grandes entreprises de croître

Les technologies disruptives permettent justement à de nouveaux acteurs du marché d’émerger. Et il est démontré plus tard dans l’étude que les premiers entrants sont ceux qui bénéficient de la plus grosse partie des marges dégagées par le nouveau marché.

La plupart des grandes entreprises adoptent la stratégie du wait and see.

Elles attendent que le nouveau marché soit établi pour monter dans le wagon. Cette stratégie est généralement coûteuse et n’apporte pas les bénéfices qui permettent de maintenir une situation de leader sur son marché. Nous l’avons vu avec Sears.

 

Principe 3 : Un marché qui n’existe pas ne peut pas être analysé correctement

Les principes d’analyse et de prévision d’une innovation disruptive ne peuvent pas s’appuyer sur des données de marché. Des chiffres pour ce type d’innovation peuvent être obtenus, mais ils supposent une démarche expérimentale basée sur des tests et des retours clients.

Mais les manager et les investisseurs rechignent à s’exposer et demandent des chiffres plus généraux avant de lancer ce type d’expérimentation. C’est le serpent qui se mord la queue. L’absence de chiffre et de prévisibilité tétanise les manager et les investisseurs. Il ne peut pas y avoir de prévision de vente, de taille de marché estimée, de chiffre d’affaire prévisionnel. Il ne peut donc pas y avoir d’innovation.

Principe 4 : Les capacités d’une organisation sont aussi ses faiblesses

Pour fonctionner, l’entreprise s’appuie sur deux piliers :

    • Ses processus. Ce sont les méthodes apprises et utilisées par les employés. Elles leurs permettent de transformer le travail, l’énergie, les matières premières, l’information et l’argent en produit à valeur ajoutée.
    • Ses valeurs. Ce sont les critères de priorisation dans la prise des décisions des employés et des managers.

Ces deux piliers permettent à l’entreprise de fonctionner selon les équilibres économiques existants. Néanmoins, il sont extrêmement difficiles à modifier et peinent à prendre en compte des innovations de rupture.

Principe 5 : La nouvelle technologie ne couvrira pas les besoins du marché

Nous avons vu que les capacités techniques d’une technologie finit toujours par excéder la demande d’un marché. Lorsqu’un manager ou un investisseur avance ce principe, il parle en fait d’une capacité réelle qui n’est en fait que partiellement utilisée.

C’est par exemple le cas des voitures aujourd’hui. Les fabricants justifient le maintien du moteur à explosion par le fait que les technologies alternatives ne permettent pas d’atteindre sa vitesse ou son endurance.

Pourtant, la vitesse maximum d’une voiture est depuis très longtemps bien au dessus des besoins réels des conducteurs.

De plus, nous voyons aujourd’hui que les alternatives à la voiture à combustion apparaissent. Elles s’adressent à des niches où le critère d’endurance n’est pas important. Ces usages permettent de développer la véhicule électrique et de créer un nouveau modèle de valeur. Celui-ci supplantera peut-être celui de la voiture à combustion.

 

Première partie : Comment les grandes sociétés échouent à innover ?

The innovator's dilemma

Source : The innovator’s dilemma

 

Chapitre 1 : Comment les entreprises établies ne échouent à innover – L’expérience de l’industrie du disque dur

L’industrie du disque dur a connu d’enormes changements depuis sa création. 17 fabriquants existaient en 1976. Un seul d’entre eux a survécu aujourd’hui, IBM. Ces entreprises étaient pourtant grandes et diversifiées, ce qui n’a pas empêché leur disparition.

Entre 1976 et 2008, 129 autres sociétés ont pénétré ce marché. Seul vingt d’entre elles existaient encore en 2008. A l’exception d’IBM, Fujitsu, Hitachi et NEC, tous les fabricants de disques en 2008 avaient été créées en tant que startup lors des trente dernières années.

Dans son étude Clayton Christensen a ainsi pu mettre en évidence que la baisse rapide du prix de production du mégaoctet de disque n’avait aucun rapport direct avec la survie ou la mort des acteurs de ce marché. Cette baisse de prix permettait une innovation incrémentale à laquelle tous les acteurs en place s’adaptaient de la même façon.

L’essentiel des innovations ont été incrémentales Dans d’autres industries, le même constat peut-être établi. La capacité à s’adapter à un rythme d’évolution technologique n’est pas le critère de maintien ou de disparition d’une entreprise Alors qu’est-ce qui a causé la disparition de 125 acteurs du marché du disque dur entre 1975 et 2008 ?

 

LES INNOVATIONS TECHNIQUES NE SONT PAS DES INNOVATIONS DE RUPTURE.

Les innovations techniques majeures confortent les entreprises établies

Ces innovations technologiques ont pu apparaître comme des innovations de rupture, mais elles ne l’étaient pas nécessairement.

Prenons l’exemple du remplacement de la ferrite par la bande magnétique. Depuis les années 50, on utilisait la ferrite comme matériau pour l’enregistrement de l’information dans les disques durs. En 1968, on apprit que ce matériau allait atteindre rapidement ses limites physiques. A partir des années 70, certains fabricants investirent lourdement et remplacèrent la ferrite par la bande magnétique.

La plupart des fabricants qui décidèrent d’attendre au delà de ce délai disparurent. IBM, Seagate, and Quantum, les premiers à passer à l’enregistrement magnétique se maintinrent et purent poursuivre leur course à l’innovation incrémentale. Les trois entreprises existent toujours de nos jours.

 

Les innovations techniques sont des innovations incrémentales

Il en fût de même, lorsqu’IBM lança le disque à 2,5 pouces dans les années 80. Ce dernier venait offrir une possibilité de stockage supplémentaire pour le marché déjà bien établi des ordinateurs personnels. Il ne répondait pas à un besoin nouveau.

C’était donc une innovation technique incrémentale. Il faut noter que pour ces innovations technologiques, ce sont généralement les firmes qui sont déjà leader qui parviennent à s’imposer. Ces innovations là n’offrent pas de place aux nouveaux entrants.

 

L’INNOVATION DE RUPTURE AU SEIN DU MARCHÉ DU DISQUE DUR

Alors qu’est-ce qui a fait l’innovation de rupture au sein du marché du disque dur ? Clayton Christensen prend l’exemple du PC portable. Ce dernier n’a pas été une innovation disruptive dans le contexte de la production d’ordinateurs. Il avait les mêmes fonctionnalités que le PC et était moins performant. Mais pour le marché du disque dur, la niche du PC portable était une innovation de rupture.

En imposant le standard du disque 3,5 pouces, le PC portable a changé le rapport performance / prix qui cadençait l’évolution du marché du disque dur. Cette innovation a également permis l’arrivée de nouveaux acteurs, un changement dans les hiérarchies précédentes et la disparition de ceux qui n’avaient pas réussi à s’adapter.

 

INNOVATION DE RUPTURE ET MODÈLE DE L’ÉCHEC DANS L’INDUSTRIE DU DISQUE DUR

The innovator's dilemma

Source : The innovator’s dilemma

Dans les années 50, un marché naissant qui se limite au disque 14 pouces

Dans ce schéma, nous voyons comment l’industrie du disque dur a évolué. Quatre standards se sont succédés entre 1974 et 1985. Les disques de 14 pouces créés par IBM à la fin des années 50 étaient adaptés au marché du mainframe. Les acteurs de ce marché ont pu accroître pendant près de dix ans les capacités de ce produit. C’était de l’innovation incrémentale. Les disques de 14 pouces ont fini par dépasser les besoins du marché au moment où Shurgart associates lança le disque 8 pouces en 1973.

Il est intéressant de noter que c’est au sein d’IBM que les premiers prototypes de disques de 8 pouces furent développés. Allan Shurgart, Il souhaitait développer ce nouveau standard pour répondre aux besoins de marchés plus petits que celui du mainframe. Mais IBM refusa de développer ce produit. Il n’intéressait pas ses clients et le prix du mégaoctet pour ce type de modèle était trop élevé.

 

Le disque 8 pouces « disrupte » le marché du disque dur

Avec le lancement du 8 pouces, Shurgart Associates et les autres nouveaux entrants partirent à la recherche de nouveaux clients. Leur produit répondait assez bien aux besoins d’un marché de niche, celui des ordinateurs d’entreprise. Mais ce marché était encore balbutiant.

Le produit entra dans un cycle d’innovations incrémentales (schéma 1.1) et rattrapa très vite les capacités demandées par le marché du mainframe. En effet les disques 14 pouces offraient des capacités excédentaires depuis bien longtemps (cf. schéma 1.7). Grâce à l’innovation incrémentale, le disque 8 pouces était maintenant satisfaisant pour les acteurs du mainframe. Ces innovations incrémentales réduisirent aussi le prix au mégaoctet de ce modèle de disque. La plupart des fabricants de disques 14 pouces furent incapables de s’adapter à temps à l’exception d’IBM. Shugart Associates, Micropolis, Priam et Quantum, les nouveaux entrants devinrent les leaders du marché du disque 8 pouces.

A la fin des années 70, le modèle de l’échec se reproduit.

Seagate lança le disque de 5,25 pouces avec pour cible le marché des ordinateurs personnels. Très vite, le 5,25 pouces devint le standard et rattrapa les capacités demandées par les clients du 8 pouces. A l’exception de Micropolis, tous les fabricants qui avaient lancé le 8 pouce au début des années 70 disparurent.

Au milieu des années 80, le modèle de l’échec se reproduisit encore une fois.

Seagate était devenu leader grâce au 5,25 pouce. Ses ingénieurs proposèrent un disque de 3,5 pouces, de taille plus petite avec un coût au mégaoctet plus élevé. Les responsables de l’entreprise ne virent pas vraiment l’utilité d’une telle innovation.

Cela les amenait à adresser des marchés de niche et à produire avec des marges plus basses. Rodime et Conner lancèrent leur modèle de disque dur de 3,5 pouces. Ces deux fabricants contribuèrent ainsi au développement du marché du PC portable. Seagate s’aligna quelques années plus tard en proposant son modèle de disque dur 3,5 pouces. Mais l’entreprise n’en tira pas de bénéfices comparables à ceux des premiers entrants.

Les firmes établies se retrouvent en queue de peloton d’un marché renouvelé

Les managers de Seagate avaient évalué le disque du de 3,5 pouces selon les critères du marché du 5,25 pouces où ils étaient dominants. L’entreprise préféra attendre de voir si le marché de l’ordinateur portable allait vraiment décoller. Elle craignait également de voir ces nouveaux produits cannibaliser ses ventes de disque 5,25 pouce, marché où elle dominait. Le risque de ce type d’attitude, on l’a vu avec IBM / Shurgart, est que la prophétie se réalise au bénéfice d’un nouvel entrant plus audacieux.

Chapitre 2 : Le value network et l’impossibilité d’innover

Avec cet exemple du marché du disque dur, deux choses sont à signaler au sujet des entreprises leaders sur leur marché :

    • Elles ne parviennent pas à retrouver une vision vers le bas du marché. C’est à dire à considérer les besoins de secteurs de niche alors que c’est cette attitude qui leur avait permis de devenir leader.
    • Elles deviennent prisonnières d’une vision vers le haut du marché. C’est à dire qu’elles ne parviennent plus à analyser les opportunités au delà de l’équilibre produits / marges qu’elles ont construit avec leurs clients actuels.

C’est pour ces deux raisons que les entreprises installées sont donc généralement incapables d’affronter l’innovation de rupture. Cela tient au concept de Value Network.

 

QU’EST-CE QUE LE VALUE NETWORK ?

Le Value Network est, selon l’auteur, le contexte dans lequel une entreprise identifie les besoins de ses clients et y répond. C’est au sein du Value Network que l’entreprise résout ses problèmes, s’approvisionne, réagit au marché et à ses concurrents, etc. En bref, c’est l’environnement dans lequel elle créé et échange de la valeur.

Au sein d’un même Value Networks, il est difficile d’accorder de l’intérêt aux innovations à marges plus basses

Cet environnement va déterminer pour une entreprise les perceptions de la valeur économique des produits, des clients et des marchés. Dans le cas des fabricants de disque dur, cette perception est déterminée par la complexité des produits qu’elles contribuent à créer. Le disque dur est un composant d’un ensemble plus large, l’ordinateur ou le serveur. Le Value Network du disque dur est donc le réseau qui réunit l’ensemble des acteurs qui contribuent à la création des composants et à l’achat de l’ordinateur.

 

Chaque Value Network a son propre niveau de marge ou rapport production / bénéfices

C’est pour cette raison que les marges attendues du disque dur 14 pouces étaient élevés. Elles étaient déterminées par le value network du mainframe. Ce dernier était fondé sur une commercialisation B2B qui autorisait des marges élevées.

Le PC portable a lui un équilibre économique très différent. Il possède son propre Value Network. Ses coûts d’assemblage sont nettement plus importants du fait de leur taille et de leur nombre. De plus, ils sont commercialisés par des réseaux de distribution grand public. Les marges y dépassent rarement 15 à 20%. Les ventes unitaires doivent y être plus élevés que celles du mainframe.

 

Les managers évaluent les innovations au sein d’un value network. Ils peinent à voir leur intérêt dans d’autres value network

C’est ainsi qu’un disque dur est intéressant à améliorer pour un fabricant qui le vend sur le marché du mainframe. Cet environnement offre en effet des marges élevées. A l’inverse cet acteur du marché du mainframe ne voudra pas baisser ses marges pour s’adapter à un autre value network. Il ne perçoit pas les caractéristiques du nouveau marché qu’il adressera. Ses critères de qualification de la valeur sont inadaptés.

Il analysera les attributs d’une innovation de rupture selon les critères de son propre marché. Ceci alors que la value network du produit disruptif n’existe pas encore. Pourtant, une fois que la value network du produit disruptif est créé, elle tend à se développer grâce à l’innovation incrémentale. En se développant, elle absorbe la value network du produit de la génération précédente.

Dans cette nouvelle value network, les nouveaux entrants ont des produits plus performants, plus pratiques, moins chers. Ils répondent également aux besoins d’un plus grand nombre de marchés. Les anciennes firmes établies sont réduites à un segment du nouveau marché avec un produit moins performant. Elles semblent donc condamnées à disparaître.

 

Y a t’il un moyen d’éviter cette trajectoire ?

Oui, mais à deux conditions :

  • Connaître les règles d’évolution technologique incrémentale et ses limites ;
  • Identifier les blocages dans le passage vers une technologie disruptive.

 

COURBE EN S ET VALUE NETWORK

The innovator's dilemma

Source : The innovator’s dilemma

Chaque innovation technologique incrémentale a une courbe de développement en S. Sa progression est lente à son démarrage, puis une fois que la technologie est comprise, maîtrisée et diffusée, sa performance technique s’améliore. C’est à ce moment que le cycle d’innovation incrémental est le plus bénéfique. En pleine maturité, la technologie atteint de façon asymptotique ses limites physiques. A ce moment là, les améliorations des capacités du produit deviennent trop coûteuses par rapport aux bénéfices attendus. Il devient donc souhaitable de mettre un terme à ces innovations incrémentales et switcher vers une technologie disruptive. Celle-ci redonnera une marge d’innovation incrémentale avantageuse.

Mais les entreprises n’y parviennent que très rarement. Pourtant, ce sont souvent elles qui sont parvenu à développer des prototypes potentiellement disruptifs. The innovator’s dilemma détaille les sept étapes qui amènent les manager à subir l’innovation disruptive.

 

LES ETAPES DU DÉVELOPPEMENT D’UNE TECHNOLOGIE DISRUPTIVE AU SEIN DE L’ENTREPRISE

Etape 1 : Une technologie disruptive est développée au sein de l’entreprise

Un prototype potentiellement innovant est développé au sein de l’entreprise. Souvent dans un coin et avec les moyens du bord. La décision de le réaliser provient généralement d’un opérationnel et pas du management.

Par exemple, les équipes de Seagate ont proposé à leur management un disque dur de 3,5 pouces à leur management en 1985. Seagate était leader du marché du disque dur à ce moment là, grâce au disque du de 5,25 pouces.

 

Etape 2 : Les équipes marketing testent les réactions auprès de leur clientèle

Les tests du produit innovant sont fait au sein du value network de l’entreprise établie. Or la particularité d’un produit disruptif est justement de créer un nouveau value network.

Ainsi, les marketeurs de Seagate décidèrent de tester le prototype auprès de la branche PC d’IBM. Le disque avait des capacités trop faibles pour ces derniers. Le marketing jugea donc qu’il n’y avait pas d’intérêt client pour ce produit.

Dans l’esprit des manager de Seagate, ce qu’il leur fallait, c’était un produit qui connaisse le même succès que le modèle vedette de la marque. Ce disque dur de 5,5 pouces nommé ST412 générait alors 300 millions de dollars dans un marché du PC en fin de cycle.

 

Etape 3 : Les managers décident de poursuivre la course à l’innovation technologique incrémentale

Ne sachant pas comment mesurer les performances promises par les produits innovants, les managers renoncent à le développer. Ils s’acharnent à améliorer leur technologie actuelle.

Seagate renonça donc à se lancer dans le marché du 3,5 pouces. Le marché potentiel d’un tel produit était incertain. De plus, le coût de production au mégaoctet était jugé trop élevé.

En effet, les marges des produits de la marque oscillaient entre 35 et 40 %. Avec le petit disque de 3,5 pouces, elle tombait à 25 et 30 %. Cet investissement technologique n’avait donc aucun sens pour Seagate. Et Seagate prit la décision de poursuivre les améliorations de son produit actuel même si celui-ci avait atteint le haut de sa courbe en S. C’est à dire, qu’il commençait à approcher les limites physiques de son potentiel d’amélioration.

 

Etape 4 : De nouvelles sociétés apparaissent et les marchés clients de l’innovation disruptive se consolident

Dans ces situations, les employés qui n’ont pas pu faire valoir les avantages de leur prototype démissionnent et créent une société concurrente. Par exemple, les fondateurs de Conner Peripherals, étaient d’anciens employés de Seagate et Miniscribe soutenus par le fabricant de PC Compaq.

 

Ces startups créées, elles partent à la recherche de nouveaux clients pour leur produit. Leur innovation ne répondent pas à des besoins clients identifiés.

Déjà, quand Seagate a créé le disque à 5,25 pouces une génération avant, l’ordinateur personnel était un hobby de geeks isolés. Seagate avait donc contribué à créé le marché. Au lancement du disque de 3,5 pouces, il en fût de même, il n’y avait pas de marché. Le premier PC d’IBM ne fut créé que deux ans plus tard.

De même, Compaq n’avait pas encore mis au point son premier PC portable lorsqu’elle décida d’investir dans Conner. Conner n’a donc pas développé le disque de 3,5 pouces dans le but de le vendre à Compaq. Comme tout nouvel entrant, l’entreprise n’avait pas de stratégie marketing claire à son lancement.

 

Etape 5 : Les nouveaux entrants finissent par faire évoluer leur offre vers le haut.

Les nouveaux entrants font évoluer les capacités techniques de leur produit rapidement. Ils entament un cycle d’innovation incrémentale qui les amènent à faire croître les capacités de leur produit plus vite que le besoin de leur marché. Ils peuvent dès lors viser les segments de marché plus gros où les marges sont plus élevés. De plus, les innovations incrémentales ont rendu le produit plus performant, moins cher et plus simple que son concurrent de la génération précédente.

 

Etape 6 : Les firmes établies grimpent en queue de wagon du nouveau train en tentent désespérément de défendre leur clientèle

A ce moment, la nouvelle architecture est pleinement compétitive. Elle est plus intéressante que le produit d’ancienne génération. L’innovation incrémentale du nouveau produit lui permet d’engager la bataille avec un rapport prix / performance supérieur au modèle d’ancienne génération. Les firmes établies n’ont pas d’autres choix que de proposer un produit de nouvelle génération. Ce dernier va lui-même cannibaliser les ventes de l’ancienne génération de produit et dégrader les marges de l’entreprise.

 

Les points clé du value network

  1. Le contexte de création de valeur (value network) a une influence profonde dans la façon dont une entreprise voit les opportunités, engagent des ressources et développe ses technologies. Les entreprises identifient ainsi les opportunités de leur produit sur des critères uniques de performance. Ces critères sont partagés par tous les acteurs au sein du même value network. Elles ne sortent donc pas de leur frontière.
  2. Les entreprises au sein de ce value network ne tendent à voir que les clients au sein de ce même value network. Pour investir dans leur innovation, elles tendent à se borner aux besoins de ces clients.
  3. Les firmes établies qui décident d’ignorer les technologies dont leur client n’ont pas besoin finissent par se mettre en risque. Cela arrive les améliorations d’un produit innovant moins performant à ses débuts finit par couvrir les besoins de ses propres clients.
  4. Les nouveaux entrants prennent l’avantage sur les firmes établies. Le drame des firmes établies est qu’elles perdent leur client. Cela se produit exactement pour les raisons qu’elles avaient évoqué en écartant une innovation qui ne semblait pas répondre à un besoin client à ses débuts. Leur produit est maintenant plus coûteux et moins performant.
  5. Les nouveaux entrants deviennent des firmes établies dans ce nouveau Value Network. Un nouveau Value network est créé avec les anciennes firmes établies qui ont réussi le passage vers la nouvelle technologie, un nouveau le nouveau Value network.

Ce modèle est-il applicable à d’autres industries ? Le livre propose de le tester dans l’industrie de l’excavation mécanique.

 

Chapitre 3. Disruption dans l’industrie de l’excavation mécanique

Le dilemme de l'innovateur

Licence Creative Commons – Credits Slava Evzhenkov

LE MARCHÉ DE L’EXCAVATION AVANT LES ANNÉES 70

Un marché concentré sur les grands chantiers

Clayton Christensen cherche ensuite à vérifier si ce modèle de l’échec et cette incapacité à sortir de son value network se vérifie dans d’autres industries. Il reprend son analyse en l’appliquant au secteur de l’excavation. Jusque dans les années 60, ce marché était dominé par les fabricants de grues d’excavation à diesel.

Celles-ci étaient raccordées à un corps peu mobile et disposaient de très grands sceaux capable d’extraire d’énormes volumes de terre. L’extraction avec des machines hydraulique s’est rapidement substituée à l’excavation diesel dans les années 70.

 

Apparition de l’excavation hydraulique

Toutes les firmes qui avaient dominé l’ingénierie de l’excavation dans les années d’après-guerre ont disparu à ce moment là. L’ensemble des acteurs qui dominent ce secteur sont les entreprises qui attaquèrent ce marché dans les années 70. L’exemple de la technologie hydraulique tend donc à confirmer notre hypothèse.

Les acteurs dominants se révèlent incapables d’envisager la disruption. Ils reproduisent le modèle de l’échec.

    • Acteurs établis : Insley, Koehring, Little Giant, and Link Belt
    • Nouveaux entrants : J. I. Case, John Deere, Drott, Ford, J. C. Bamford, Poclain, International Harvester, Caterpillar, O & K, Demag, Leibherr, Komatsu, and Hitachi
L’excavation diesel domine le marché

Les engins d’excavation sont nécessaires à l’essentiel des chantiers. Aujourd’hui, nous les rencontrons aussi bien dans les petits chantiers privés que dans les grands ouvrages. Dans les années 45-60, ce matériel était essentiellement utilisé dans les très grands chantiers. Voici les trois cas d’usages principaux :

    • Le BTP : terrassement, creusement de fondations pour des immeubles, etc.
    • Le génie civil : le creusement de canaux, l’enfouissement de pipelines, etc.
    • Le creusement des mines.
Les capacités du diesel excèdent la demande

Les performances de forage et d’excavation demandées par ces acteurs étaient très élevées. C’est ainsi que le matériel avait fini par s’imposer car il possédait la plus grande force de traction des immenses seaux remplis de terre.

Pour les acteurs de ce marché la performance de leur matériel se mesurait en quantité chargée par seau.

L’émergence de la technologie de l’excavation hydraulique et sa trajectoire d’amélioration La première machine hydraulique fut produite par une entreprise britannique, J.C. Bamford en 1947. Elle fût suivie par plusieurs entreprises américaines qui commercialisèrent leur modèle hydraulique à la fin des années 40. La capacité de leurs seaux était très faibles et la profondeur atteinte aussi.

Avec la technologie hydraulique, les nouveaux entrants ciblent les marchés de niche

Du fait de ces limitations, les nouveaux entrants durent rechercher d’autres marchés que ceux cités plus haut. Les nouveaux entrants associèrent leur machine à excavation à des tracteurs et ciblèrent les petits chantiers et les agriculteurs. Ces derniers avaient des besoins d’excavation nettement moins profonds que ceux des usagers d’excavateurs diesel. Ils commercialisèrent leurs produits par les réseaux de distributions habitués à adresser cette petite clientèle.

Ces petits clients et leur réseaux de distribution constituèrent le value network de l’excavation hydraulique. Mais pour que cette technologie devienne réellement disruptive, il fallait qu’elle se substitue à l’ancienne.

On retrouve dans ce schéma l’amorce de courbe en S décrite plus haut.

Innovation incrémentale dans les technologies d’excavation hydraulique

L’excavation hydraulique connut un démarrage lent. La capacité des seaux sur ces machines restait donc très en dessous des de la demande moyenne du marché de l’excavation.

Puis les améliorations incrémentales successives permirent à cette technologie de rattraper la demande moyenne du marche. Le matériel qui avait été développé durant quinze ans était devenu plus léger, plus maniable et pratique. Il avait surtout atteint le niveau de performance que souhaitaient la plupart des clients.

La performance des machines diesel elle dépassait depuis longtemps cette demande des clients. Mais ces derniers ne souhaitaient plus payer pour des capacités excédentaires qu’ils n’utiliseraient pas. Par ailleurs les produits diesel n’avait pas bénéficié des innovations apportées par l’hydraulique (rotation 360 et mobilité).

La réponse des entreprises établies confrontées à la technologie hydraulique

En 1951, le leader du marché de l’excavation Diesel, Bucyrus, tenta de s’adapter. Il proposa un modèle hydraulique à deux cylindres au lieu de trois. L’un pour la rotation, l’autre pour l’articulation du bras. La levée du seau était toujours assurée par un moteur diesel.

Le modèle était donc un hybride. Il fût baptisé Hydrohoe (Houe hydraulique). L’entreprise tenta de le commercialiser auprès de son propre Value Network. Ce fut un échec, car il ne répondait pas à leurs besoins.

Dans les années 60, d’autres entreprises établies tentèrent de se lancer dans les machines à l’excavation hydraulique. Toutes proposèrent des modèles hybrides au sein de leur value network. Tous leurs clients jugèrent le produit limité.

REPRODUCTION DU MODÈLE DE L’ÉCHEC

Comme pour l’industrie du disque dur, les entreprises établies on reproduit les deux erreurs suivantes :
    • S’adresser à leurs propres clients pour valider le besoin d’une innovation disruptive ;
    • Ignorer les besoins d’autres marchés perçus comme des niches. Ces derniers disposent d’un potentiel non exploité, de leur propres logiques de distribution et d’un rapport coût / bénéfices différent.

Les nouveaux entrants ont développé leur produit à partir de ces nouveaux marchés. Ils ont progressivement comblé l’écart entre les capacités de l’hydraulique et la demande de performance réelle de l’ensemble du marché.

Le marché du diesel absorbé par celui de l’hydraulique

Elles ont ainsi constitué leur propre value network et absorbé le value network des firmes établies. A l’exception du creusement des mines, les machines à excavation diesel n’avaient plus d’intérêt pour les clients.

Les entreprises établies n’ont pas échoué par arrogance, mépris ou incompétence. Quand la question s’est posée, elles ont pu proposer des produits à technologie hydraulique. Technologiquement, elles étaient donc en mesure de s’adapter.

Elles ont été incapables de sortir de leur value network et d’envisager une clientèle hors de leur marché. L’hydraulique n’avait aucun sens pour elles jusqu’à ce qu’il soit trop tard.

Ceux qui évoluent vers le haut ne parviennent pas à redescendre

Un autre phénomène explique également cette incapacité à affronter l’innovation de rupture. L’auteur l’appelle la migration vers le nord-est. Il s’agit en fait de l’attrait des compagnies vers le haut du marché. C’est à dire là où les capacités demandées sont élevées et où les marges sont plus hautes.

En procédant de la sorte, les nouveaux entrants délaissent le segment qui leur avait permis de s’établir. Les manager et investisseurs valorisent d’ailleurs fortement ce changement de segment client. A l’apparition d’une innovation disruptive, cette stratégie s’avère pourtant funeste.

Chapitre 4. La migration vers le nord-est

Le dilemme de l'innovateur

The innovator’s dilemma

Partir vers le nord-est où les marges sont plus belles

SEAGATE PART À LA RECHERCHE DE CLIENTS PLUS RENTABLES

Nous voyons dans le schéma ci-dessus (4.1) que Seagate illustre parfaitement ce schéma de migration nord-est. Ainsi, sa première génération de produit disposait d’une capacité moyenne qui répondait aux besoins des ordinateurs personnels.

Mais dans les années 90, la capacité moyenne des produits vendus par Seagate augmenta pour s’adapter aux besoins de segments professionnels. Ces derniers offraient de meilleures marges.

Le choix entre des marges plus élevées et la disruption vers des segments moins rentables

Cette situation obéît à un scénario général. Tous les acteurs du marché s’engagent dans ces mouvements attirés par les marges plus élevées. Ils y investissent de la recherche, du marketing, de l’administratif afin de rester compétitifs.

Voici donc le choix auquel ces entreprises se retrouvent confrontées :

    • Suivre la disruption et se lancer dans un produit aux marges plus faibles
    • Investir dans un segment client aux marges plus élevées
En général, les managers choisissent toujours les segments clients les plus rentables, au détriment de l’innovation de rupture

C’est le choix qui s’est présenté à IBM avec le disque dur 8 pouces. C’est aussi celui qui s’est présenté à Seagate lorsque ces ingénieurs lui ont présenté un prototype de 3,5 pouces. Les fabricants de disque 8 pouces devaient choisir entre

    • lancer un produit qui dégraderait leur marge de 15 points
    • investir auprès de clients qui leurs promettait vingt points de marges supplémentaires.

Dans le marché du disque dur, les managers ont donc systématiquement choisi la deuxième option. Elle leur paraissait rationnelle au sein de leur value network. Ces entreprises qui étaient des nouveaux entrants sont devenues alors des entreprises établies. Cette situation les a coupé de leur attitude disruptive initiale qui supposait au contraire une mobilité vers le bas.

La mobilité vers le haut rend donc la disruption dangereuse pour les entreprises qui y sont confrontées.

LA LOGIQUE DE L’ALLOCATION DES RESSOURCES POUR LES ENTREPRISES EN MOBILITÉ ASCENDANTE

L’allocation de ressources favorise la mobilité ascendante au détriment de la disruption

Cette mobilité vers le haut est favorisée par des modèles d’allocations de ressources au sein des entreprises.

    • Dans le premier modèle, le processus d’allocation de ressources est rationnel. C’est un processus de décision dans lequel les managers arbitrent les propositions d’allocation. Celles qui sont cohérentes avec la stratégie et promettent un retour sur investissement sont conservées. Les autres sont éliminées.
    • Le second modèle a été décrit par Joseph Boyer, un collègue Clayton Christiansen à Harvard. Ce dernier note que toutes les propositions d’innovation de rupture viennent du bas de l’entreprise, jamais du haut. Le middle management joue alors un rôle critique. Ces derniers doivent filtrer les projets. Les évolutions de carrière des managers ont lieu quand ces derniers font réussir des projets. Leur carrière déraille lorsqu’ils échouent. Ces derniers tendent donc à choisir des projets et à les packager de façon à ce qu’ils leur permettent de réussir.

C’est dans ce second modèle que l’innovation est possible. Mais comparons maintenant deux situations :

Le marketeur présente son projet d’innovation incrémentale

Un marketeur présente son projet de développement d’un nouveau segment de clientèle. Pour l’atteindre, il propose d’augmenter les capacités du produit. En repartant de l’historique, il démontrera que son projet permettra d’améliorer les ventes et la marge de son entreprise. Par ailleurs, il aura déjà validé ses hypothèses de vente auprès de client pilotes et parfois enregistré les premières commandes. Le projet est prêt à être lancé dès validation par le management.

L’ingénieur échoue à défendre l’innovation disruptive

L’ingénieur présente son idée d’innovation. Il n’a pas de marché à présenter. Il ne sait pas estimer le potentiel de son innovation. Cette dernière n’a pas de cas d’usage à offrir qui pourrait servir de référence. Toutes ses hypothèses sont basées sur des hypothèses non vérifiées. Ses retours clients sont souvent faiblement qualifiés.

L’entreprise finit toujours par privilégier les revenus à court terme

Le premier projet sera donc choisi par le management de l’entreprise. En primant les revenus à court terme et la marge, l’organisation entière qui ne permet pas de porter l’innovation disruptive. Parfois, un senior-manager fait le choix d’une innovation disruptive. Même dans ces cas, l’organisation tend à la rejeter car elle n’apportera pas les résultats attendus d’ordinaire par les individus : de la marge, du revenu et des carrières réussies. Dans le débat interne sur l’allocation de ressources, le choix de l’innovation de rupture est donc souvent perdant.

L’EXEMPLE DE L’INDUSTRIE DU DISQUE DUR D’1,8 POUCES

Une disruption en apparence ratée

Clayton Christensen raconte également l’histoire du disque dur d’1,8 pouces. Il visita une entreprise qui l’avait lancé en 1993 en espérant disrupter le marché. En 1994, ses dirigeants confièrent à Clayton Christiansen que ce produit n’avait pas de clientèle. Même si le produit s’améliorait rapidement, aucun des fabricants de PC portable n’en voulait.

 

Les clients n’étaient pas là où on les attendait

Pourtant, quelques mois plus tard, un de ses étudiants fit une présentation en utilisant un document stocké dans une petite boite noire reliée à son ordinateur.

Clayton Christensen lui demanda de quoi il s’agissait. L’étudiant lui répondit qu’in s’agissait d’un disque nomade d’1,8 pouces fabriqué par une petite startup du Colorado.

Ainsi, nous avons ici un encore un problème du développement vers le nord-ouest. La grande entreprise avait à sa disposition la même technologie que la startup. Pourtant, c’est la startup qui a été à la recherche du nouveau segment de clientèle.

 

La recherche de marges élevées ne permet pas la disruption

La grande entreprise n’était donc pas capable d’imaginer une application dédiée à un segment où les marges seraient plus fables et les volumes plus élevés. Elle persistait à envisager l’usage de son prototype dans un secteur où les marges étaient trop élevées pour lui permettre de percer.

LA MIGRATION VERS LE NORD-EST DE L’INDUSTRIE SIDÉRURGIQUE

The innovator's dilemma

Nucor Steel Mill, Luna Park, West Seattle – Auteur : Gary Lund – Licence Creative Commons

Les petites aciéries (minimills), rentables dès les années 60

L’industrie des petites aciéries (Minimills) est devenue viable au milieu des années 60. Ces petites aciéries permettent de produire du métal à un coût intéressant à des volumes dix fois plus bas que celui des grandes aciéries intégrées. L’échelle de production est la seule différence. La contrainte de production continue basée sur un feu permanent est la même dans les deux systèmes de production.

 

Une activité marginale et deconsideree

En 1995, la petite aciérie la plus efficace nécessitait en moyenne 0,6 heures de travail par tonne d’acier. La plus efficace des grandes aciéries intégrées en nécessitait 2,3.

Par conséquent, les petites aciéries sont passées de moins de 1% en 1965 à plus de 40% en 1995. En 2015, elles représentaient 70% de la production d’acier aux Etats-Unis.

Toutefois, en 2008, Clayton Christensen notait qu’aucune grande aciérie n’avait encore choisi d’utiliser la technologie des minimills aux USA. Ceci malgré un contexte de déclin général de la production d’acier aux Etats-Unis avec la fermeture d’un grand nombre de sidérurgistes intégrés.

Pourtant, ce n’est pas le cas dans d’autres pays où les grands fabricants ont investi. Par exemple, Nippon Steel, Kawasaki / NKK au Japon, British Steel, Hoogovens (Tata Steel) en Europe et Pohang Steel en Corée ont investi dans les petites aciéries.

 

Les grands sidérurgistes délaissent le métal de moindre qualité et les clients les moins rentables

A leur lancement dans les années 60, les minimills offraient un produit de plus faible qualité que les grands sidérurgistes. Elles se spécialisèrent donc dans l’acier d’armature. En matière de qualité de produit, cet usage tolérait une lus grande quantité d’impuretés dans le métal. Les grandes aciéries furent contentes de se débarrasser de la clientèle de l’acier d’armature. Elle était peu rentable.

Les minimills rentabilisèrent ce segment en réduisant leurs coûts : vente par téléphone, pas de stock, pas de R&D, peu de management. Puis elles améliorèrent la qualité de leur acier et produisirent des pièces plus grosses et plus variées (barres, tiges et cornières).

 

Les minimills poussées par des investissements agressifs

En 1980, les minimills possédaient 90% du marché des armatures et 30 du marché des barres, tiges et cornières. Puis au milieu des années 80, Nucor et Chaparral, les deux plus agressives de ces entreprises se lancèrent dans la production de poutres de structure. En 1995, Bethleem fermait la dernière ligne de production de poutres dans une grande aciérie aux Etats-Unis laissant le champ libre aux minimills.

 

Les managers des grandes aciéries privilégient l’innovation incrémentale

Le déclin des grandes aciéries intégrées trouve aussi son origine dans les choix réalisés par ses managers.

Ainsi, en 1985, alors qu’elles abandonnaient les secteurs les moins rentables aux minimills, les grandes aciéries se spécialisèrent dans la production de grandes feuilles d’acier. Ces dernières étaient utilisées pour produire des canettes, des pièces d’automobiles ou d’électroménager. En faisant ce choix, elles se spécialisaient sur des clients à forte marge. De plus la petite taille des minimills ne leur permettait pas d’affronter les grands sidérurgistes sur ce segment. De même, les outils de production requis nécessitaient des investissements qui étaient hors de portée de minimills.

En d’autres termes, les grandes aciériers ont migré vers le nord-est de leur value network.

Ces investissements fructueux furent salués en leur temps car le ROI semblait alors évident. D’ailleurs, la capitalisation de l’un des leaders des grands sidérurgistes, Bethleem Steel grimpa de 175 millions de dollars en 1986 à 2,4 milliards en 1989.

The innovator's dilemma

The innovator’s dilemma

Les grands sidérurgistes passent à côté d’une innovation majeure

Mais une innovation disruptive allait mettre fin à ce monopole des grandes aciéries dans la production des grandes feuilles de métal.

Dans ces mêmes années, Schloemann-Siemag AG, une entreprise allemande, lança une nouvelle technologie.

Celle-ci qui permettait de produire des dalles minces à partir d’une coulée de métal (cf. photo). Le métal de faible épaisseur était ensuite enroulé sans refroidissement dans un moulin. Ce procédé avait plusieurs avantages :

    • D’abord, l’investissement nécessaire à la mise en place de ce procédé était de 250 millions de dollars. Ce montant était dix fois moins élevé que l’investissement nécessaire au procédé utilisé dans les par les grands sidérurgistes.
    • Ensuite, ce procédé permettait aussi de réduire la production des bobines de feuilles de métal de 20%.

Mais, la technologie de Schloemann-Siemag AG avait aussi un inconvénient à ses début. En effet, le métal produit selon ce procédé ne permettait pas de proposer une surface sans défaut.

 

Les minimills à la recherche de clients à forte marge

Toutefois, les grands sidérurgistes évaluèrent l’opportunité d’utiliser le procédé de Schloemann-Siemag AG. Mais l’absence de défaut posait problème à certains clients. Par conséquent, ils renoncèrent à changer d’outil de production. Ils continuèrent d’ailleurs à investir dans l’ancien procédé.

En parallèle, Nucor, un des principaux acteur des minimills s’appropria le procédé en premier à la fin des années 80. En effet, cette entreprise n’était pas encombrée par les demandes de l’industrie automobile ou celle de l’électroménager. Ainsi, les minimills entamèrent leur migration vers le nord-est de leur value network.

Conclusion de la première partie de

The innovator’s dilemma

Finalement, l’histoire de l’innovation dans l’industrie sidérurgique est semblable celle du disque dur.

Elle est faite d’investissements agressifs, de décisions rationnelles, de migration vers des segments clients rentables et de recherche de marges. Les acteurs de ces industries ont tous été confrontés au même dilemme de l’innovateur.

Donc, si les décisions managériales sont à l’origine du déclin des grands acteurs, quel management peut permettre l’innovation disruptive. C’est ce que nous verrons dans la deuxième partie de « The innovator’s dilemma ».

 

Le livre :

 

L’auteur de The innovator’s dilemma

  • Clayton M. Christensen est professeur à Harvard et spécialiste de l’innovation. Son livre « The innovator’s dilemma » est devenu l’ouvrage de référence pour comprendre quelles sont les dynamiques de l’innovation.

 

Sources complémentaires

Partager l'article :
 
 
    

Leave a Comment:

Leave a Comment:

Voulez-vous apprendre à écrire des articles captivants ?