IFCD0115 PROCESAMIENTO BIG DATA CON SCALA

140 Horas
ONLINE
El curso IFCD0115 PROCESAMIENTO BIG DATA CON SCALA es una especialidad formativa de la Familia Profesional de la informática y comunicaciones. Con este curso IFCD0115 Procesamiento Big Data con Scala el alumno será capaz de dominar las herramientas y técnicas necesarias para el procesamiento de Big Data, utilizando Scala y Apache Spark, analizar y visualizar datos a gran escala, implementar proyectos de Big Data de manera eficiente y aplicar las mejores prácticas en seguridad, optimización y gobernanza de datos en proyectos de Big Data.
DISPONIBLE PRÓXIMAMENTE
EF_392735-2401

UNIDAD DIDÁCTICA 1. INTRODUCCIÓN AL PROCESAMIENTO DE BIG DATA

  1. Comprensión de los Conceptos Básicos de Big Data:
  2. - Conocimiento de los principios fundamentales de Big Data.
  3. - Familiarización con la terminología y los conceptos clave relacionados con el procesamiento de grandes conjuntos de datos.
  4. - Identificación de las principales características que definen el Big Data, como volumen, velocidad, variedad y veracidad.
  5. Importancia y Aplicaciones de Big Data:
  6. - Reconocimiento de la relevancia de Big Data en diversos sectores y áreas de negocio.
  7. - Exploración de casos de uso reales donde el procesamiento de Big Data ha tenido un impacto significativo.
  8. - Comprendiendo cómo Big Data puede proporcionar información valiosa y ventajas competitivas.
  9. Desafíos en el Manejo de Big Data:
  10. - Identificación y análisis de los desafíos comunes que surgen al trabajar con grandes volúmenes de datos.
  11. - Evaluación de problemas relacionados con el almacenamiento, procesamiento y análisis de Big Data.
  12. - Comprender cómo la infraestructura y las herramientas pueden abordar estos desafíos.
  13. Desafíos de Seguridad en Big Data:
  14. - Reconocimiento de los desafíos de seguridad específicos en el entorno de Big Data.
  15. - Exploración de las amenazas y riesgos comunes asociados con el procesamiento de datos masivos.
  16. - Comprender cómo se pueden implementar estrategias de seguridad para proteger los datos de Big Data.

UNIDAD DIDÁCTICA 2. FUNDAMENTOS DE SCALA

  1. Introducción a Scala como lenguaje de programación:
  2. - Conocimiento de los orígenes y la historia de Scala.
  3. - Comprendiendo las razones detrás del desarrollo de Scala como un lenguaje de programación.
  4. - Familiarización con las características y ventajas de Scala en comparación con otros lenguajes.
  5. Sintaxis básica y estructuras de datos en Scala:
  6. - Aprendizaje de la sintaxis básica de Scala, incluyendo la declaración de variables, tipos de datos y operadores.
  7. - Exploración de las estructuras de datos fundamentales en Scala, como listas, conjuntos y mapas.
  8. - Desarrollo de habilidades para escribir código Scala básico.
  9. Programación funcional en Scala:
  10. - Comprender los conceptos de programación funcional, como funciones de orden superior y funciones puras.
  11. - Aprendizaje de cómo Scala admite programación funcional.
  12. - Desarrollo de la capacidad para escribir funciones y trabajar con programación funcional en Scala.

UNIDAD DIDÁCTICA 3. APACHE SPARK

  1. Introducción a Apache Spark:
  2. - Conocimiento de los fundamentos de Apache Spark como marco de procesamiento de datos.
  3. - Comprendiendo la importancia y las aplicaciones de Apache Spark en el procesamiento de big data.
  4. - Familiarización con los desafíos involucrados en el manejo de grandes conjuntos de datos y cómo Spark aborda estos desafíos.
  5. Ventajas y Características de Spark:
  6. - Aprendizaje de las ventajas clave de Apache Spark en términos de velocidad y eficiencia.
  7. - Exploración de las características que hacen que Spark sea adecuado para el procesamiento de big data, como el procesamiento en memoria y la tolerancia a fallos.
  8. - Comprender cómo Spark se compara con otras soluciones de procesamiento de big data.
  9. Arquitectura y Componentes de Spark:
  10. - Conocimiento detallado de la arquitectura interna de Apache Spark, incluyendo los componentes clave como el administrador de clúster, el programador y el administrador de recursos.
  11. - Aprendizaje de cómo se estructuran las aplicaciones Spark.
  12. - Familiarización con el concepto de RDD (Resilient Distributed Dataset) y su papel en Spark.
  13. Transformaciones y Acciones en Spark:
  14. - Comprender las transformaciones y acciones en Spark y cómo se utilizan para manipular y procesar datos.
  15. - Desarrollo de habilidades para escribir código que implemente transformaciones y acciones en Spark.

UNIDAD DIDÁCTICA 4. ANÁLISIS Y VIRTUALIZACIÓN DE DATOS CON SPARK

  1. Análisis de datos con Spark:
  2. - Comprender los conceptos básicos de análisis de datos con Apache Spark.
  3. - Aprender a aplicar algoritmos y técnicas de análisis de datos en conjuntos de datos de gran tamaño.
  4. - Adquirir habilidades para procesar y extraer información valiosa de grandes volúmenes de datos.
  5. Bibliotecas y herramientas de visualización de datos:
  6. - Conocimiento de las bibliotecas y herramientas disponibles para visualizar datos en Spark.
  7. - Aprendizaje sobre cómo utilizar estas bibliotecas para crear gráficos y representaciones visuales de datos.
  8. - Desarrollo de la capacidad para comunicar resultados de análisis de datos de manera efectiva mediante visualizaciones.
  9. Creación de informes y cuadros de mando:
  10. - Adquisición de habilidades para crear informes y cuadros de mando basados en los resultados del análisis de datos en Spark.
  11. - Comprender cómo diseñar y estructurar informes que presenten de manera efectiva la información extraída.
  12. - Aprender a utilizar herramientas de creación de informes y cuadros de mando en el contexto de Spark.

UNIDAD DIDÁCTICA 5. IMPLEMENTACIÓN DE PROYECTOS DE BIG DATA CON SCALA

  1. Planificación y diseño de proyectos de Big Data:
  2. - Adquirir conocimientos sobre la planificación de proyectos de Big Data.
  3. - Aprender a diseñar proyectos que cumplan con los objetivos de procesamiento de datos y análisis.
  4. - Comprender cómo definir requisitos y alcance para proyectos de Big Data.
  5. Desarrollo e implementación de soluciones con Scala y Spark:
  6. - Conocimiento de las mejores prácticas y enfoques para el desarrollo de soluciones de Big Data utilizando Scala y Apache Spark.
  7. - Aprender a implementar soluciones prácticas que aborden desafíos de procesamiento de datos.
  8. - Desarrollo de habilidades para utilizar eficazmente Scala y Spark en proyectos reales.
  9. Evaluación de proyectos de Big Data:
  10. - Aprender a evaluar proyectos de Big Data en términos de su eficacia y cumplimiento de objetivos.
  11. - Comprender cómo medir y analizar los resultados de un proyecto de procesamiento de datos.
  12. - Adquirir habilidades de evaluación para mejorar continuamente los proyectos de Big Data.
  13. Estudio de casos reales de procesamiento de Big Data:
  14. - Analizar casos reales de proyectos exitosos y desafíos en el procesamiento de Big Data.
  15. - Comprender cómo se aplican los conocimientos adquiridos en situaciones prácticas.
  16. - Aprender de las experiencias de proyectos anteriores y las soluciones implementadas.
  • Duración: 140 horas