FR: Le Cloud, c’est quoi exactement ?
Qu’est-ce que “le Cloud” ?
« Le Cloud » fait référence à des serveurs accessibles sur internet qui sont situés dans des centres de données partout dans le monde.
Ces serveurs donnent accès aux logiciels et aux bases de données qu’ils hébergent, permettant aux utilisateurs et aux entreprises d’exécuter des logiciels et des applications sur leurs propres appareils et limitant le besoin d’une infrastructure de serveur locale.
Cela permet également aux particuliers et aux entreprises de stocker, partager et recevoir des fichiers sans avoir à envoyer ces fichiers réellement aux destinataires.
Le cloud computing va encore plus loin en permettant aux utilisateurs de manipuler les données stockées dans le cloud. Le cloud computing a souvent besoin d’une certaine forme de stockage cloud dès le départ pour être efficace, mais certains systèmes peuvent offrir un package de stockage de base pour permettre à l’utilisateur de commencer.
En bref, le Cloud peut être résumé comme une combinaison de trois concepts fondamentaux qui visent à :
- Fournir un service, tel que le stockage ou l’informatique en tant qu’utilitaire
- Fournir une ressource informatique partagée sur laquelle plusieurs personnes peuvent travailler, appelée virtualisation
- Donner accès à des services via un réseau
Le précurseur
Dans les années 1950, les ordinateurs étaient de grande taille et incroyablement coûteux à installer et à entretenir. D’énormes unités centrales étaient nécessaires pour héberger et exploiter le réseau informatique d’une entreprise. En conséquence, cette configuration n’avait vraiment de sens financier et opérationnel que pour les grandes organisations, les gouvernements ou les institutions qui pouvaient se permettre leur propre infrastructure.
On pense que les premières théories sur le cloud computing proviennent de John McCarthy dans les années 1950, il avait notamment inventé le terme “intelligence artificielle” (IA).
La théorie de McCarthy tournait autour de l’idée du « partage du temps », selon lequel les petites entreprises – qui ne pouvaient pas se permettre leurs propres unités centrales – pouvaient partager leur « temps » afin de bénéficier de certains des avantages informatiques que les grandes organisations pouvaient se permettre d’avoir.
D’autres idées sur le «partage» informatique viendraient de l’informaticien américain JCR Licklider, qui a avancé l’idée d’un système interconnecté d’ordinateurs.
Cette idée influencera plus tard la création d’ARPANET (Advanced Research Projects Agency Network).
Communément perçu comme le précurseur d’Internet, ce réseau a commencé à permettre le partage de sources numériques entre plusieurs ordinateurs qui n’avaient pas besoin de résider au même endroit.
Licklider et l’équipe travaillant sur ARPANET – ayant imaginé un monde où tout le monde était connecté, quel que soit son emplacement – venaient d’ouvrir la voie au monde «numérique» moderne que nous vivons actuellement (et dont nous ne pourrons probablement pas nous passer).
Développements tout au long du XXe siècle
Au cours des deux décennies suivantes, le domaine a vu une explosion de nouvelles idées et de développements dans le partage d’informations et l’infrastructure de réseau.
Ces progrès ont été mis en évidence en 1976 lorsque la reine Elizabeth II a envoyé l’un des premiers e-mails (bien que le tout premier soit largement reconnu comme ayant été envoyé par Ray Tomlinson, un programmeur informatique qui a travaillé sur le système ARPANET).
Cet effet boule de neige a continué dans les années 1980. Au cours de cette décennie, la Maison Blanche a installé ses premiers ordinateurs ; des systèmes d’exploitation réseau ont été lancés, permettant aux ordinateurs de « parler » entre eux, et des bandes de stockage ont été mises à disposition pouvant contenir jusqu’à 200 Mo de données.
À la fin des années 80, plus de 100 000 ordinateurs étaient connectés à Internet, capables d’effectuer des tâches de base. À cette époque, les ordinateurs commençaient également à devenir omniprésents dans la vie de bureau, et la question de savoir comment permettre à ces appareils de « parler » les uns avec les autres devenait de plus en plus nécessaire.
Premières itérations du Cloud computing moderne
Avec la diffusion publique du World Wide Web dans les années 1990, la révolution des “point-com (ou.com)” et la popularité croissante du commerce électronique ont éclaté.
Pendant la majeure partie des années 90, le Cloud était considéré comme l’espace entre l’utilisateur final et le fournisseur. Cette perception a ensuite été remise en question par le professeur Ramnath Chellapa de l’Université Emory, qui a ensuite défini le cloud computing comme un “paradigme informatique, où les limites de l’informatique seront déterminées par une logique économique, plutôt que par les seules limites techniques”.
On pense que la première utilisation du terme «Cloud Computing» est venue des bureaux de Compaq Computing en 1996. Tout en envisageant l’avenir des entreprises, un petit groupe d’employés de Compaq (dont Sean O’Sullivan et George Favalaro) théorisait comment tous les logiciels d’entreprise finiraient par migrer vers le Web. Ils ont également suggéré que les «logiciels compatibles avec le cloud computing» deviendraient bientôt la norme.
Le Cloud moderne
Il y a encore un débat sur l’origine du terme.
Comme nous l’avons vu, les premières idées autour du terme peuvent remonter aux années 1950, mais dans sa forme moderne, il est généralement admis qu’il a été introduit par Eric Schmidt en 2006 – le PDG de Google à l’époque – lors d’une conférence de l’industrie.
Au fur et à mesure que la technologie devenait plus abordable et plus accessible, les entreprises ont commencé à proposer ces applications sur Internet, introduisant le modèle Software-as-a-Service (SaaS).
Les premiers exemples notables de produits SaaS mis sur le marché à cette époque étaient Salesforce en 1999 et Amazon Web Services (AWS) en 2006.
À peu près au même moment, Google a lancé son service Google Docs. Juste un an plus tard, ils s’associeraient également à IBM et à un certain nombre d’universités américaines pour développer un ensemble de serveurs qui permettrait un traitement plus rapide et un endroit pour héberger des ensembles de données plus volumineux. La même année, Netflix a lancé son service de streaming Cloud, donnant lieu à l’accessibilité de la vidéo à la demande.
D’autres avancées notables dans le cloud sont apparues sous la forme d’OpenNebula de la NASA, le premier logiciel open source pour le déploiement de cloud privé et hybride (2008).
IBM a ensuite introduit IBM SmartCloud (2011), suivi d’Oracle un an plus tard avec Oracle Cloud.
Chez Nuvias UC, nous travaillons avec un certain nombre de fournisseurs de technologie Cloud pour apporter à la chaîne les technologies numériques de nouvelle generation, afin de permettre à l’utilisateur final de travailler et de communiquer aussi efficacement que possible.
Il y a eu beaucoup d’autres développements depuis.
La technologie cloud continue de se développer et de répondre aux besoins d’un monde de plus en plus interconnecté.
Dans un monde où même nos montres et sonnettes sont connectées au Cloud, les possibilités semblent infinies.
Pour en savoir plus sur ce que la technologie Cloud apporte au canal informatique, consultez notre guide des solutions Cloud ici>>.
- Français