Le processus d’optimisation continue de Google

Posted by | mai 27, 2011 | analyse, Études de cas | 2 Comments

“The sexy job in the next ten years will be statisticians… The ability to take data—to be able to understand it, to process it, to extract value from it, to visualize it, to communicate it”
Hal Varian, Google’s Chief Economist (McKinsey Quarterly, 2009)

Ce texte fait partie d’une série de 7 études de cas, pour un dossier spécial sur le Big Data.


Il serait triste de terminer cette présentation d’entreprises qui utilisent stratégiquement l’analyse de grandes quantités de données sans parler de Google. C’est que le fondement même de cette entreprise repose sur les données. Quand on y pense, Google est une organisation virtuelle dont le succès est d’avoir créé des applications numériques dans lesquelles transitent, s’organisent et se transforment des données. Alors que le nerf de la guerre pour Google est de faire des profits avec ses revenus publicitaires, sa vision pour le faire repose sur l’optimisation de ses processus.

Des services gratuits, des données rentables

L’innovation chez Google est un service mis directement au profit des utilisateurs de ses services. Les applications de Google sont destinées directement à des particuliers ou à des entreprises qui veulent réaliser un ou des objectifs d’affaires précis. Par exemple : faire une recherche sur Google, trouver un livre sur Google Scholar ou Google Books; promouvoir son entreprise avec Google AdWords; gérer ses courriels avec Gmail; optimiser son site Web avec Google Analytics; naviguer sur le Web avec Google Chrome; faire un appel avec Google Talk; regarder des vidéos sur YouTube ou la télé sur Google TV; trouver une direction sur Google maps; traduire un texte avec Google translate; gérer ses photos avec Picasa; etc.

Un des objectifs de Google est d’optimiser toutes ses applications de sorte qu’elles soient de plus en plus performantes pour ensuite les utiliser, de façon secondaire, comme support pour des placements publicitaires qui génèrent des revenus. Plus une application est performante, et plus elle est utilisée par un grand nombre de personnes, ce qui permet à Google de collecter encore plus de données qui sont à leur tour analysées pour optimiser encore plus la performance de cette application et en vendre les mérites aux annonceurs potentiels.

Apprendre (rapidement) par la pratique

Google collecte des données impersonnelles afin d’optimiser les services qu’elle offre. Peu lui importe de savoir si c’est Pierre ou Jacqueline qui ne trouve jamais le bouton pour ouvrir une session dans Google Docs, si jamais le système d’analyse de Google mesure une tendance significative par rapport à X utilisateurs qui ont le même problème, alors l’entreprise mettra en place une série de tests A/B ou de tests multivariés afin de comprendre ce qu’il faut faire pour en minimiser l’impact.

Comme le dit Hal R. Varian, économiste en chef de Google :

“the source of Google’s competitive advantage is learning by doing” (Lohr, 2008).

Et l’expertise de Google est d’apprendre rapidement à partir des quantités phénoménales des données qu’elle analyse et qu’elle teste perpétuellement en temps réel.

“Google is all about improving everything quickly. Most companies think of release cycles measured in months or years. Google measures release cycles in hours or days . Google’s process of continuous improvement occurs at a rate that most companies only dream of” (Howe, 2008).

Pas besoin de savoir pourquoi?

L’originalité du processus de mesure et d’optimisation de Google réside aussi dans son approche méthodologique pour le faire.

“Google’s founding philosophy is that we don’t know why this page is better than that one: If the statistics of incoming links say it is, that’s good enough. No semantic or causal analysis is required” (Howe, 2008).

C’est d’ailleurs le fondement de cette approche analytique, fondée sur les mathématiques, qui fait dire à Chris Anderson, dans son excellent article “The End of Theory: The Data Deluge Makes the Scientific Method Obsolete” que

“Google’s founding philosophy is that we don’t know why this page is better than that one: If the statistics of incoming links say it is, that’s good enough. No semantic or causal analysis is required” (Anderson, 2008).

Les exemples de Gmail et du moteur de recherche de Google sont éloquents pour démontrer cette philosophie.

Mesurer, affiner, tester et optimiser, mesurer, tester…

Gmail a été l’une des premières applications du Web 2.0 à être lancée en mode bêta. Lancé en 2004, c’est seulement après cinq ans en 2009 (Belfiore, 2009) que Google retire officiellement la mention bêta associée au produit. Pendant tout ce temps, Google mesure, affine, teste et optimise son service Web. Même si la signification de la migration vers la version définitive de Gmail n’est pas très claire (car Google continue de mesurer, affiner, tester et optimiser…), cet exemple démontre bien à quel point la culture de la mesure est au fondement même de la philosophie de développement des produits de l’entreprise. Comme le fait remarquer Jason Freidenfelds, un porte-parole chez Google :

“Beta is more of an internal set of requirements and an indication that we continue to work on the product to make it better and better. Google has very high internal metrics that products have to meet before coming out of beta…” (Bauman, 2007).

Un autre exemple éloquent de ce processus de mesure et d’optimisation chez Google est son moteur de recherche. Chaque jour Google fait rouler une série d’expérimentations en temps réel afin de mieux comprendre comment de nouveaux critères pourraient améliorer les résultats des recherches proposés aux internautes qui utilisent son moteur de recherche (Mayer & Pansari, 2006). Ceci veut dire que le Google search que vous utilisez n’est pas nécessairement le même que le mien, ni le même que vous avez utilisé hier!

En fait, des centaines de facteurs de positionnement sur les moteurs de recherche (SEOmoz, 2009) et de nouvelles fonctionnalités sont testés chaque jour en temps réel sans même que les utilisateurs sans aperçoivent. C’est sans compter les mises à jour majeures de son système de recherche comme le MayDay update ou bien le Panda update. Cela fait beaucoup de tests à analyser, d’autant plus qu’en moyenne, 34 000 résultats de recherche sont générés chaque seconde dans le monde (McGee, 2010) et qu’il faut croiser toutes ces données! Vive la puissance des ordinateurs et la complexité des méthodes d’analyses de données!

Whatever happened to the Space Age? provient du site optimiseduk.

  • http://grevillecontainers.com Contenedores marítimos

    En fait, on devrait tous faire la même chose que Google pour nos clients.

    Intéresser, positionner, fidéliser, rendre ergonomique, vendre, tester, optimiser, publier et rebelote.

    On intéresse, on fidélise et on monétise. Je me demande tout de même comment l’on peut gérer (correctement) autant de facteurs touchant autant de domaines différents.

  • Pingback: Définition et caractéristiques du Big Data | Qu’est-ce que le BigData?