Le grand paradoxe de données

Vous trouverez une nuance à propos de Big analyse des données. Il est vraiment à propos de petites données. Même si cela peut sembler déroutant et à l'encontre de la prémisse, petite données est le produit de la grande analyse de données. Cela ne veut pas d'un nouveau concept, ni étrangers à des gens qui ont fait l'analyse de données pour toute longueur de temps. L'espace de travail globale est plus importante, mais les réponses se trouvent quelque part dans le “ petite ”.

L'analyse des données traditionnelle a commencé avec les bases de données remplies d'information du client, des informations produit, des transactions, des données de télémétrie, et ainsi de suite. Même alors, trop de données étaient disponibles pour analyser efficacement. Systèmes, les réseaux et les logiciels ne sont pas les performances ou la capacité de traiter l'échelle. En tant qu'industrie, les lacunes ont été abordées par la création d'ensembles de données plus petits.

Ces ensembles de données plus petits étaient encore assez de fond, d'autres lacunes ont été rapidement discovered- le plus flagrant est l'inadéquation entre les données et le contexte de travail. Si vous avez travaillé dans les comptes créditeurs, vous avez eu à regarder une grande quantité de données non liées à faire votre travail. Encore une fois, l'industrie a répondu en créant de plus petites, des ensembles de données contextuelles pertinentes - grand au plus petit au plus petit encore.

Vous pouvez reconnaître ce que la migration des bases de données à des entrepôts de données à des data marts. Plus souvent qu'autrement, les données pour les entrepôts et les marts ont été choisis sur des paramètres arbitraires ou expérimentaux résultant en un grand nombre d'essais et d'erreurs. Les entreprises ne recevaient pas les perspectives dont ils ont besoin ou ont été possible parce que les réductions de capacité ne sont pas fondées sur des faits de calcul.

Entrez big data, avec tous ses volumes, des vitesses, et les variétés, et le problème reste ou peut-être se détériore. Les lacunes de l'infrastructure ont été traités et peuvent stocker et traiter d'énormes quantités de données supplémentaires, mais les nouvelles technologies ont été nécessaires spécifiquement pour aider à gérer les grandes données.

Malgré les apparences, ceci est une chose merveilleuse. Aujourd'hui et dans l'avenir, les entreprises auront plus de données qu'ils peuvent imaginer et ils auront les moyens de le capturer et de le gérer. Ce qui est plus que jamais nécessaire est la capacité d'analyser la droit données dans un mode assez opportun pour prendre des décisions et actions.

Les entreprises vont encore réduire les ensembles de données en “ la lutte contre la garniture, ” mais ils peuvent le faire de calculs. Ils traitent les grandes données et la transformer en petites données de sorte qu'il est plus facile à comprendre. Il est plus précis et, parce qu'il a été dérivé d'un point de départ beaucoup plus grande, il est plus adaptée au contexte.


» » » » Le grand paradoxe de données