Participez à Tech For Retail, l’événement qui définit l’évolution du retail par la tech. Demandez votre badge

Recherche
Data, Entrepôt
June 12, 2018

Data lake: révolution pour le stockage des données

L’un des enjeux actuels du Big Data est de pouvoir stocker des données en quantité suffisante pour être exploitées avec pertinence. Les applications d’intelligence artificielle (IA) et de machine learning ont en effet besoin d’importants volumes de données pour être performantes. Mais le stockage de ces informations a un coût, souvent très élevé. Comment conserver ces informations dans les meilleures conditions et à moindre frais ? Focus sur le Data Lake, nouvelle technologie du cloud au service du Big Data.

Article

Qu’est-ce que le Data Lake ?

Avec l’essor du Big Data, le volume des données disponibles a explosé. Problème : pour des questions de coûts, il est aujourd’hui difficile d’extraire toutes les données des logiciels pour les exploiter comme les entreprises le faisaient auparavant.

Pour conserver les données le plus finement possible et dans la durée, une nouvelle technologie était nécessaire. C’est ainsi qu’est né le Data Lake, une solution de stockage qui permet d’organiser et conserver des fichiers de données dans leur format d’origine, sans les transformer.

Pourquoi y avoir recours ?

Le stockage des données issues du Big Data est aujourd’hui une vraie gageure pour les entreprises. Le fonctionnement des algorithmes d’intelligence artificielle nécessite l’analyse d’un grand nombre d’informations pour étudier les comportements et établir des modèles de prévisions fiables. Il est donc nécessaire de permettre l’accès aux données dans le temps et d’en assurer la sécurité sans faire exploser les coûts de conservation.

Grâce au Data Lake, conserver un maximum de données fines, qui seront utilisées pour nourrir les outils d’exploitation de données de l’IA, est un jeu d’enfant. But de l’opération : construire aisément des modèles prédictifs. Cette nouvelle technologie de stockage permet de répondre aux 3 principales exigences du Big Data :

  1. assurer la sécurité des données ;
  2. conserver leur intégrité ;
  3. garantir leur disponibilité dans le temps à moindre coût.

Nos derniers contenus

Prêt à optimiser les flux de biens et de données de votre Supply Chain ?

Travaillez avec nos équipes pour concevoir et mettre en œuvre la Supply Chain qui accompagnera votre croissance, adaptée à vos spécificités métier.