Procesamiento de Big Data con Apache Spark y Scala



Apache Spark ha surgido como un gran desarrollo en el procesamiento de big data.

pl tutorial de sql con ejemplos

IST: 7:00 a. M. - 08:00 a. M., 17 de octubre de 2014





PDT: 6:30 p. M. - 7:30 p. M., 16 de octubre de 2014

Asientos limitados !! Complete el formulario a la derecha y reserve su espacio hoy.



Hola a todos, estamos llevando a cabo un seminario web gratuito sobre Apache Spark y Scala el 18 de octubre de 2014. El título del webinar es 'Procesamiento de Big Data con Apache Spark y Scala' . En este webinar, se discutirán los temas esenciales relacionados con Apache Spark y Scala. Cualquier duda o consulta se puede aclarar durante la sesión.

Temas a cubrir:

  • ¿Qué es Big Data?
  • ¿Qué es Spark?
  • ¿Por qué Spark?
  • Ecosistema Spark
  • Una nota sobre Scala
  • ¿Por qué Scala?
  • Hola Spark - Manos a la obra

¿Por qué Spark?

Apache Spark es un marco de trabajo de computación en clúster de código abierto para clústeres comunitarios de Hadoop. Califica para ser uno de los mejores motores de análisis y procesamiento de datos para datos a gran escala con su velocidad incomparable, facilidad de uso y análisis sofisticado. A continuación se presentan las ventajas y características que hacen de Apache Spark un éxito cruzado tanto para análisis operativos como de investigación:

  • Los programas desarrollados sobre Spark se ejecutan 100 veces más rápido que los desarrollados en Hadoop MapReduce.
  • Spark compila 80 operadores de alto nivel.
  • Spark Streaming permite el procesamiento de datos en tiempo real.
  • GraphX ​​es una biblioteca para cálculos gráficos.
  • MLib es la biblioteca de aprendizaje automático para Spark.
  • Escrito principalmente en Scala, Spark se puede integrar en cualquier sistema operativo basado en JVM, al mismo tiempo que también se puede utilizar en forma REPL (lectura, evaluación, proceso y carga).
  • Tiene potentes capacidades de almacenamiento en caché y persistencia en disco.
  • Spark SQL le permite manejar con soltura consultas SQL
  • Apache Spark se puede implementar a través de Apache Mesos, Yarn en HDFS, HBase, Cassandra o Spark Cluster Manager (el propio administrador de clústeres de Spark).
  • Spark simula el estilo funcional y la API de colecciones de Scala, lo cual es una gran ventaja para los desarrolladores de Scala y Java.

Necesidad de Apache Spark:

Spark está brindando inmensos beneficios a la industria en términos de velocidad, variedad de tareas que puede realizar, flexibilidad, análisis de datos de calidad, rentabilidad, etc., que son las necesidades del día. Ofrece soluciones de análisis de big data de alta gama en tiempo real a la industria de TI, satisfaciendo la creciente demanda de los clientes. La analítica en tiempo real aprovecha las capacidades comerciales a montones. Su compatibilidad con Hadoop hace que sea muy fácil para las empresas adoptarlo rápidamente. Existe una gran necesidad de expertos y desarrolladores con conocimientos de Spark, ya que se trata de una tecnología relativamente nueva, que se está adoptando cada vez más.