Em big data, o sistema de arquivos hdfs é usado para armazenar arquivos muito grandes de forma distribuída, tendo como princípio o write-many, read-once.
Soluções para a tarefa
Respondido por
0
Incorreto! Em big data o sistema de arquivos HDFS é usado para armazenar arquivos muito grandes baseado no princípio Write once - Read many (não write-many, read-once como diz o texto)
Arquivos HDFS no big data
Hadoop Distributed File System (HDFS) é o principal componente do ecossistema Hadoop. Essa peça possibilita armazenar conjuntos de dados massivos com tipos de dados estruturados, semiestruturados e não estruturados, como imagens, vídeos, dados de sensores, etc.
Ele é otimizado para armazenar grandes quantidades de dados e manter várias cópias para garantir alta disponibilidade e tolerância a falhas. É uma tecnologia fundamental para Big Data.
Entenda mais sobre Big Data: https://brainly.com.br/tarefa/47293099
Anexos:
Perguntas interessantes
Física,
4 meses atrás
ENEM,
4 meses atrás
Direito,
4 meses atrás
Informática,
4 meses atrás
Matemática,
9 meses atrás
Ed. Física,
9 meses atrás