Rayon Economie des industries et des services
Big data : un changement de paradigme peut en cacher un autre : opportunités et menaces liées à l'émergence de nouveaux écosystèmes

Fiche technique

Format : Broché
Nb de pages : 54 pages
Poids : 178 g
Dimensions : 17cm X 24cm
ISBN : 978-2-7598-1780-1
EAN : 9782759817801

Big data

un changement de paradigme peut en cacher un autre
opportunités et menaces liées à l'émergence de nouveaux écosystèmes


Paru le
Broché 54 pages
rapporteur Yves Caseau
Professionnels

Quatrième de couverture

Le Big Data représente un changement de paradigme qui mérite un accompagnement national des pouvoirs publics, et une prise de conscience des grandes entreprises. Ce rapport présente les conclusions du groupe de travail de l'Académie des technologies.

La maitrise du Big Data est un enjeu majeur de compétitivité pour les entreprises. Le Big Data, c'est une nouvelle façon de faire de l'informatique massivement parallèle. Il est donc essentiel d'acquérir ces nouvelles compétences, à la fois techniques et culturelles, par exemple de savoir profiter de l'écosystème de l'open source. Maîtriser ces méthodes permet aux entreprises une nouvelle proximité dans la relation avec ses clients. Il devient fondamental de comprendre ces nouveaux outils pour faire face à la compétition mondiale des entreprises «stars» de l'Internet.

Le Big Data, c'est une autre façon de programmer des systèmes, en boucle fermée et de façon adaptative, en incluant ses clients ou utilisateurs dans cette boucle. C'est avant tout une démarche expérimentale - même si elle laisse la place aux développements conceptuels et théoriques - qui est favorisée par un changement de culture de travail, agile et collaborative.

Le Big Data représente également une nouvelle façon de programmer, de façon massivement parallèle et centrée sur les données. Le Big Data n'est pas simplement une collection d'outils, c'est également une autre façon de concevoir les algorithmes. Cette différence vient de la distribution des traitements sur des milliers voire des dizaines de milliers de machines, des exigences de performance liées aux très gros volumes et du besoin de mettre les algorithmes au point par apprentissage.

Avis des lecteurs