L’apprentissage automatique est une branche de l’informatique, un domaine de l’intelligence artificielle. Il s’agit d’une mthode d’analyse de donnes qui aide en outre automatiser la building du modle analytique. Alternativement, comme le mot l’indique, il fournit aux machines (systmes informatiques) la capacit d’apprendre partir des donnes, sans aide extrieure pour prendre des dcisions avec un minimal d’intervention humaine. Avec l’volution des nouvelles applied sciences, le machine studying a beaucoup chang ces dernires annes.
Discutons de ce qu’est le Big Data ?
Les mgadonnes signifient trop d’informations et l’analyse signifie l’analyse d’une grande quantit de donnes pour filtrer les informations. Un humain ne peut pas faire cette tche efficacement dans un dlai limit. Voici donc le level o l’apprentissage automatique pour l’analyse de donnes volumineuses entre en jeu. Prenons un exemple, supposons que vous soyez propritaire de l’entreprise et que vous ayez besoin de collecter une grande quantit d’informations, ce qui est trs difficile en soi. Ensuite, vous commencez trouver un indice qui vous aidera dans votre entreprise ou prendre des dcisions plus rapidement. Ici, vous vous rendez compte que vous avez affaire d’immenses informations. Vos analyses ont besoin d’un peu d’aide pour russir la recherche. Dans le processus d’apprentissage automatique, plus les donnes que vous fournissez au systme sont nombreuses, plus le systme peut en tirer des leons et renvoyer toutes les informations que vous recherchiez et donc faire de votre recherche un succs. C’est pourquoi cela fonctionne si bien avec l’analyse de donnes volumineuses. Sans mgadonnes, il ne peut pas fonctionner son niveau optimum automobile avec moins de donnes, le systme a peu d’exemples tirer. On peut donc dire que le massive knowledge a un rle majeur dans le machine studying.
Au lieu de divers avantages de l’apprentissage automatique dans l’analyse, il existe galement divers dfis. Discutons-en un par un :
-
Apprendre partir de donnes massives : Avec les progrs de la technologie, la quantit de donnes que nous traitons augmente de jour en jour. En novembre 2017, il a t constat que Google traite env. 25 Po par jour, avec le temps, les entreprises croiseront ces ptaoctets de donnes. L’attribut principal des donnes est le quantity. C’est donc un grand dfi de traiter une telle quantit d’informations. Pour surmonter ce dfi, les frameworks distribus avec calcul parallle doivent tre privilgis.
-
Apprentissage de diffrents sorts de donnes : Il existe aujourd’hui une grande varit de donnes. La varit est galement un attribut majeur du Big Data. Les donnes structures, non structures et semi-structures sont trois sorts de donnes diffrents qui entranent en outre la gnration de donnes htrognes, non linaires et de grande dimension. Apprendre partir d’un si grand ensemble de donnes est un dfi et entrane en outre une augmentation de la complexit des donnes. Pour surmonter ce dfi, l’intgration de donnes doit tre utilise.
-
Apprentissage des donnes diffuses en continu haut dbit : Il existe diverses tches qui incluent l’achvement des travaux dans un sure laps de temps. La vlocit est galement l’un des principaux attributs du Big Data. Si la tche n’est pas acheve dans un dlai spcifi, les rsultats du traitement peuvent devenir moins prcieux, voire sans valeur. Pour cela, vous pouvez prendre l’exemple de la prvision boursire, de la prvision des tremblements de terre, and so on. Il est donc trs ncessaire et difficile de traiter les mgadonnes temps. Pour surmonter ce dfi, une approche d’apprentissage en ligne doit tre utilise.
-
Apprentissage de donnes ambigus et incompltes : Auparavant, les algorithmes d’apprentissage automatique fournissaient des donnes relativement plus prcises. Les rsultats taient donc galement exacts ce moment-l . Mais de nos jours, il y a une ambigut dans les donnes automobile les donnes sont gnres partir de diffrentes sources qui sont galement incertaines et incompltes. C’est donc un grand dfi pour l’apprentissage automatique dans l’analyse de donnes volumineuses. Un exemple de donnes incertaines est les donnes gnres dans les rseaux sans fil en raison du bruit, de l’ombrage, de l’vanouissement, and so on. Pour surmonter ce dfi, une approche base sur la distribution doit tre utilise.
-
Apprentissage des donnes de densit de faible valeur : L’objectif principal de l’apprentissage automatique pour l’analyse de donnes volumineuses est d’extraire les informations utiles d’une grande quantit de donnes des fins commerciales. La valeur est l’un des principaux attributs des donnes. Trouver la valeur significative de grands volumes de donnes ayant une densit de faible valeur est trs difficile. C’est donc un grand dfi pour l’apprentissage automatique dans l’analyse de donnes volumineuses. Pour surmonter ce dfi, les applied sciences de Data Mining et la dcouverte de connaissances dans les bases de donnes doivent tre utilises.