Informática, perguntado por zSrJinka7033, 4 meses atrás

Em big data, o sistema de arquivos hdfs é usado para armazenar arquivos muito grandes de forma distribuída, tendo como princípio o write-many, read-once.

Soluções para a tarefa

Respondido por vchinchilla22
0

Incorreto! Em big data o sistema de arquivos HDFS é usado para armazenar arquivos muito grandes baseado no princípio Write once - Read many (não write-many, read-once como diz o texto)

Arquivos HDFS no big data

Hadoop Distributed File System (HDFS) é o principal componente do ecossistema Hadoop. Essa peça possibilita armazenar conjuntos de dados massivos com tipos de dados estruturados, semiestruturados e não estruturados, como imagens, vídeos, dados de sensores, etc.

Ele é otimizado para armazenar grandes quantidades de dados e manter várias cópias para garantir alta disponibilidade e tolerância a falhas. É uma tecnologia fundamental para Big Data.

Entenda mais sobre Big Data: https://brainly.com.br/tarefa/47293099

Anexos:
Perguntas interessantes