15:47
0

Para que eu possa futuramente escrever mais sobre hadoop , vou iniciar este primeiro post com uma duvida comum para quem  esta começando em bigdata o que é hadoop?

Bom hadoop é muita coisa mas antes de mais nada ele é um  projeto de código aberto para computação confiável, escalável, distribuído para os amantes escrito em JAVA.
Mais uma definição segundo o site oficial "

Apache Hadoop é um framework que permite o processamento distribuído de grandes conjuntos de dados através de clusters."
No meu ponto de vista um dos grandes fatores do sucesso do hadoop é a possibilidade de ter alto desempenho a um custo de hardware acessível.

O framework é dividido em módulos  :  Hadoop Common, Hadoop Distributed File System  (HDFS),Hadoop YARN e Hadoop MapReduce.

Agora que temos uma breve noção do que  e hadoop  quem de fato utiliza hadoop?  creio que muitas empresas utiliza para diversas coisa mesmo que não em produção. mas o fato é que, segundo a wiki do projeto empresas como: Amazon , adobe, aol, ebay , facebook,IBM. linkedin entre outras utilizam esta tecnologia, apostando assim que nos profissionais de TI devemos ficar antenado para tal tecnologia.

Outros projeto que compoem um solução bigdata com hadoop são: Ambari ,Avro,Cassandra,Chukwa ,HBase,Hive ,Cornaca ,Pig , ZooKeeper .

Em breve trarei exemplos práticos e como iniciar em Hadoop., por hora para obter mais conhecimento indico os cursos gratuitos da bigdata University http://www.bigdatauniversity.com/

Referencias:
http://pt.wikipedia.org/wiki/Hadoop
http://hadoop.apache.org/
http://wiki.apache.org/hadoop/PoweredBy

0 comentários:

Postar um comentário