ENEM, perguntado por juliehuangjulie7661, 3 meses atrás

conforme afirma o autor davenport (2014), a necessidade de vencer o desafio, reunindo e analisando fontes de diversas naturezas, deu origem a pesquisas que nos levaram ao big data. o autor ainda cita que essas pesquisas foram desenhadas a partir de três aspectos iniciais que são: a múltipla natureza dos dados, o uso de processamento em nuvem e o uso de tecnologias específicas. sobre as ferramentas, leia as afirmações abaixo: i - para processamento paralelo e uso de cluster temos o hadoop. ii - hdfs é a estrutura de processadores para alta performance otimizado para big data. iii - mapreduce é o framework que deu origem ao hadoop. iv - machine learning trata-se do uso de algoritmo para identificar o melhor modelo a ser aplicado nos dados. v – o uso do processamento em nuvem possibilidade escalabilidade e redução de custos. analisando as alternativas acima, escolha a opção correta


dplucas: Também preciso dessa resposta URGENTE!

Soluções para a tarefa

Respondido por Matheusieti
0

Os elementos conhecidos e determinados que servem como base para a resolução de uma situação aplicada, de maneira que as informações nos apresentem os fatos ou dados comunicados podendo ser conhecidos ou não. Por isso, o Machine Learning se conectam com o uso dos algoritmos identificando o melhor modelo a ser aplicado junto a base de dados. I, II, III, IV e V.

Como a análise Big Data funciona?

A análise Big Data é observada a partir do volume de dados. Por armazena-los em grandes e variadas quantidades, ele se concentra nas informações de grande escala, onde o valor das informações são retiradas a partir do processamento.

Por fim, os Frameworks funcionam a partir das estruturas compostas por um conjunto dos códigos genéricos, permitindo o desenvolvimento das aplicações e seus elementos estruturais.

Sobre o armazenamento de dados:

https://brainly.com.br/tarefa/2664911

#SPJ4

Perguntas interessantes