C’est la gestion des réseaux qui risquent de faire la défifférence. Il y a dix ans, un centre de données désservant des entreprises commerciales investissait environ 80% de son budget dans la technologie et 20% dans la gestion humaine des réseaux. Aujourd’hui, cette proportion est d’environ 30% pour la technologie et 70% pour la gestion. Il y a six ans, on considérait un réseau de distributeurs de billets comportant 20.000 machines connectées, comme un réseau en ligne important. Aujourd’hui, l’Internet constitue à lui seul le plus grand réseau informatique avec des centaines de millions d’internautes.

C’est pour affronter ce changement d’échelle, cette accélération dans la compléxité de gestion d’un réseau, que les ingénieurs des plus grands centres de recherche d’informatique de chez IBM, Hewlett-Packard, Microsoft ou Sun Microsystems, cherchent à concevoir des logiciels capables de détecter n’importe quel problème et de le résoudre sans intervention extérieure.

Pour développer son concept d’ordinateur automatique, IBM s’est inspiré du fonctionnement du système nerveux autonome des organismes vivants qui permet de s’adapter instantanément à des changements importants. Le développement de ce concept devrait permettre à Big Blue de répondre aux prochains changements dans le domaine des sciences de l’information, un secteur où le coût d’une opération informatique baisse rapidement mais où celui généré par la gestion humaine du réseau risque de faire la différence.