LaDissertation.com - Dissertations, fiches de lectures, exemples du BAC
Recherche

Introduction au Big Data

Cours : Introduction au Big Data. Recherche parmi 298 000+ dissertations

Par   •  3 Février 2022  •  Cours  •  5 526 Mots (23 Pages)  •  340 Vues

Page 1 sur 23

Fondamentaux des big data

Introduction au big Data

Contexte :

Donnée numérique : fondée sur un système binaire électronique qui permet à l’homme d’étendre ses capacités en interagissant avec des dispositif numérique ( ex : les téléphone) Une grande majorité d’être humain sont aujourd’hui interconnectés grâce à des machines.

Le big data est constitué de ces données numériques massives.

Les données numériques sont le nouveau carburant de notre économie :

  • Ressource clé intégrée dans nos business modèles : sont de plus en plus monétisées en B to C ou B to B

Explosion quantitative des données numériques :

  • De différentes nature
  • Peu structurée
  • Structures changeantes
  • Trouver de nouvelles manières de voir et d’analyser : découvrir de nouveau ordre de grandeur concernant la capture, la recherche, le partage, le stockage, l’analyse et la présentation des données.

Définition :

Big data :

  • données de très grande taille, dont la manipulation et gestion présentent des enjeux du point de vue logistiques. 
  • Englobe tout terme pour décrire toute collection de données tellement volumineuse et complexe qu’il devient difficile de la traiter en utilisant des outils classiques de « traitement d’application »
  • Collections de données dont la taille dépasse la capacité de capture, stockage, gestion et analyse des systèmes de gestion de bases de données classiques. McKinsey.

Unité de mesures

1 mégaoctet = 106 octets = 1 000 000 octets

1 giga octet = 109 octets

1 tera octet 1012 octets

1 péta octet 1015 

1 ex octet = 1018

1 Zetta octet = 1021

Tous les deux ans, il se crée autant de données que depuis le début de l’humanité, ce qui amène les prévisionnistes à parler de 40 Zetta octets pour 2020.

Méga octet (1 Mo)

  • 2 Mo également le poids d’une photo haute résolution
  • 5 Mo : l’ensemble de l’œuvre de Shakespeare : 500 Mo,  un CD rom

Giga Octets

  • 1 Go équivaut à un film

Peta octets

  • 2 Po ensemble des bibliothèque scientifique américaine
  • 8 Po l’ensemble de l’info disponible sur internet

Exac octets

  • 2 Eo : approximativement, l’ensemble de l’information, toutes sources confondues, générée chaque année dans le monde
  • 5 Eo : l’ensemble des mots prononcés depuis l’aube de l’humanité

Zetta octets

  • 1 zetta : un film qui dure 745 millions d’années

Le recours à l’achat on line fait intervenir le Big Data au travers d’une micro segmentation du consommateur et lui faire propositions d’achat susceptible de l’intéresser (ex : Amazon)

Les offres promotionnelles reçu sur son mobile à proximité de magasins est rendu possible en combinant Big Data et géolocalisation.

Smart Grid et Big Data permettent aux distributeurs d’énergie d’enrichir leur offre en conseillant aux particuliers et entreprises sur l’optimisation de leurs usages (installation domotique déclenchant l’utilisation d’appareil électrique en fonction du cout de l’énergie)

Un réseau électrique intelligent : dont smat Grid est l’une des dénomination anglophone, est un réseau de distribution d’électrique qui favorise la circulation d’info entre les fournisseurs et les consommateur afin d’ajuster le flux d’élec en temps réel et permettre une gestion plus efficace du réseau électrique. Avec des technologies informatiques : optimiser la production, la distribution, la consommation.

A l’origine du Big data :

Une réelle prise de conscience des trésors informationnels cachés et non exploités à l’intérieur comme à l’extérieur de l’ent. Aujourd’hui l’info devient accessible à tous.

De nos jours, le réel atout différenciant des ent réside plus dans leur capacité à exploiter/valoriser l’information en temps réel qu’a la stocker. En 60 ans le prix de Go a été divisé par 520.

Caractérisation du Big data :

Les 3V : introduit en 2011 par le cabinet de conseil McKinsey et company. :

  • Vélocité exigée dans le traitement due à la fréquence de création et ou de collecte
  • Volume importance des données
  • Variété/ Vitesse des informations (généralement peu ou pas structurées)

Extension au 5V :

  • Valeur doit être crée via le Big data. Si les données ne créent pas de valeur pour l’entreprise alors ces données ne peuvent être source d’innovation
  • Véracité : c’est un élément important à vérifier et à intégrer dans un processus de traitement de données.

Valeur :

Les données en elles même ne créent aucune valeur : c’est leur utilisation dans le business model qui créera de la valeur.

La facilité pour collecter des données et valeur potentielle qui peut en dériver varie grandement en fonction du secteur d’activité. Ex : la valeur pour les service financier et assurance est potentiellement grande et facile à capter. Inverse pour le monde de l’éducation ou arts et spectacle.

La valeur des données est de plus en plus exploité pour :

  • L’innovation
  • Gains d’efficacité
  • Création d’entreprises

Volume :

Lié :

  • A l’amélioration exponentielle de la puissance des ordinateurs : loi de Moore
  • Facilité de stockage : chaque jour en 2017 plus de données ont été crées que depuis le début de l’humanité jusqu’en 2000
  • Utilisation intensive des smartphones et médias sociaux a largement contribué à stimuler le volume Big Data
  • L’internet des objets se rajoutent à ce déluge de données : en 2025 75 milliards d’objets devraient être connectés

Vélocité :

...

Télécharger au format  txt (35.5 Kb)   pdf (110.2 Kb)   docx (27.4 Kb)  
Voir 22 pages de plus »
Uniquement disponible sur LaDissertation.com