¿Cuáles son las terminologías clave en Hadoop Security?



Este blog de Edureka lo ayuda con un conocimiento detallado y completo sobre la seguridad de Hadoop que se está implementando en tiempo real.

es una preocupación importante cuando se trata de datos confidenciales. ser el superior en operaciones de manejo de datos también enfrenta el mismo problema. No tiene su propia seguridad dedicada. Entendamos cómo se resolvió el problema a través de este Seguridad de Hadoop artículo.

¿Por qué necesitamos Hadoop Security?

hadoop-security-¿por qué es importante la seguridad de hadoop?





es el marco de procesamiento de big data más potente, robusto y altamente escalable capaz de reducir petabytes de datos con facilidad. Debido a sus capacidades incomparables, en ese entonces, todos los sectores comerciales, departamentos de salud, militares y financieros comenzaron a usar Hadoop.

Hadoop comenzó a ganar popularidad. Aquí es cuando los desarrolladores de Hadoop encontraron un monumental error de cálculo. Hadoop carecía de un software de seguridad dedicado dentro de eso. Esto afectó a muchas áreas donde se usaba Hadoop.



  • Múltiples sectores comerciales

  • Seguridad nacional

  • Departamentos de salud y médicos



  • Social Media

  • Militar

Las áreas mencionadas anteriormente son los principales usuarios de Hadoop. Ahora, Seguridad es el gran salto que debe dar Hadoop.

¿Qué es Hadoop Security?

Seguridad de Hadoop se define generalmente como un procedimiento para seguro la unidad de almacenamiento de datos de Hadoop, al ofrecer un muro de seguridad prácticamente impenetrable contra cualquier amenaza cibernética potencial. Hadoop logra este muro de seguridad de alto calibre siguiendo lo siguiente protocolo de seguridad.

diferencia entre lanzamientos y lanzamientos

Autenticación

Autenticación es la primera etapa en la que se verifican las credenciales del usuario. Las credenciales suelen incluir el nombre del usuario Nombre de usuario y un contraseña secreta. IngresóLas credenciales se compararán con los detalles disponibles en la base de datos de seguridad. Si es válido, el usuario será autenticado.

Autorización

Autorización Es la segunda etapa en la que el sistema decide si concede permiso al usuario para acceder a los datos o no. Se basa en la lista de control de acceso designada previamente. El Confidencialla información se mantiene segura y solo personal autorizado puede acceder a él.

Revisión de cuentas

Revisión de cuentas es la última etapa, simplemente realiza un seguimiento de las operaciones realizadas por el usuario autenticado durante el período en el que estuvo conectado al clúster. Esto eshecho únicamente para seguridad propósitos solamente.

Tipos de seguridad de Hadoop

  • Seguridad Kerberos

Kerberos es uno de los principales protocolos de autenticación de red diseñado para proporcionar potentes servicios de autenticación tanto para Servidor y Extremos del cliente mediante Llave secreta técnicas de criptografía. Se ha demostrado que es muy seguro, ya que utiliza tickets de servicio encriptados durante toda la sesión.

  • Cifrado HDFS

Cifrado HDFS es un avance formidable que Hadoop alguna vez abrazó. Aquí, los datos de fuente a destino (HDFS) se encripta completamente. Este procedimiento no requiere que se realicen cambios en la aplicación Hadoop original, lo que hace que cliente ser el único personal autorizado para acceso los datos.

  • Cifrado de tráfico

Cifrado de tráfico no es otro que HTTPS (Protocolo seguro de transferencia de hipertexto). Este procedimiento se utiliza para asegurar la transmisión de datos, del sitio web tanto como transmisión de datos al sitio web . Muchas pasarelas bancarias en línea utilizan este método para asegurar transacciones en un Certificado de seguridad

  • Permisos de directorio y archivo HDFS

Permisos de directorio de archivos HDFS trabajar en un simple POSIX formato. los Leer y Escribir los permisos se proporcionan como r y s respectivamente. Los permisos para el Superusuario y Cliente se configuran de manera diferente según la confidencialidad del archivo.

Kerberos

Kerberos es una de las redes más simples y seguras protocolo de autenticación utilizado por Hadoop para su seguridad de datos y red. Fue inventado por CON. El objetivo principal de Kerberos es eliminar la necesidad de intercambiar contraseñas a través de una red, y también, proteger la red de cualquier potencial. ciber sniffing.

Para comprender la terminología de Kerberos, primero debemos conocer los componentes involucrados en el software Kerberos.

KDC o Centro de distribución de claves es el corazón de Kerberos. Consta principalmente de tres componentes. A saber:

  • Base de datos

los base de datos almacena las credenciales de usuario como nombre de usuario y sus respectivos contraseñas. También almacena el privilegios de derecho de acceso proporcionado al usuario. La unidad Kerberos KDC también almacena información adicional como Clave de cifrado, validez del ticket etc.

  • Servidor de autenticación

Las credenciales de usuario ingresadas serán verificadas. Si es válido, el Servidor de autenticación proporcionará TGT o Ticket Generación Ticket. Un TGT se puede generar solo si el usuario ingresa credenciales válidas.

  • Servidor de concesión de tickets

La siguiente etapa es la TGS o Servidor de concesión de tickets. Es básicamente un servidor de aplicaciones de KDC que le proporcionará la Ticket de servicio. El usuario requiere el ticket de servicio para interactuar con Hadoop y obtener el servicio que necesita o para realizar una operación en Hadoop.

Puede instalar Kerberos con el siguiente comando:

sudo apt-get install krb5-kdc krb5-admin-server

Ahora, supongamos que desea acceder a un clúster de Hadoop protegido por Kerberos. Debe pasar por las siguientes etapas para acceder al clúster de Hadoop como se describe en los pasos a continuación:

  • Necesitas obtener autenticación del Clúster Hadoop. Puede autenticarse ejecutando Kinit comando en el Hadoop Cluster.

kinit root / admin
  • los Kinit La ejecución del comando lo redirigirá al Credenciales de acceso página donde se espera que ingrese su nombre de usuario y contraseña.

  • los Kinit enviará un Solicitud de autenticación al Servidor de autenticación.

  • Si sus credenciales son válido, entonces Authentication Server responderá con un Ticket Generation Ticket (TGT).

  • los Kinit almacenará el TGT en sus credenciales Cache Memoria. El siguiente comando le ayudará a leer sus credenciales

klist
  • Ahora, está autenticado correctamente en el KDS.

  • Antes de acceder al clúster de Hadoop, debe configurar los clientes Kerberos. para hacerlo, use el siguiente comando.

sudo apt-get install krb5-user libpam-krb5 libpam-ccreds auth-client-config
  • Ahora, intente ejecutar un Comando Hadoop. Eso es un Cliente Hadoop.

  • los Cliente Hadoop usará tu TGT y solicitudes TGS Para su aprobación.

  • los TGS aprobará la solicitud y le proporcionará una Ticket de servicio.

  • Esta Ticket de servicio será almacenado en caché por el Cliente Hadoop.

  • Esta Ticket de servicio será utilizado por el cliente Hadoop para comunicar con Hadoop Namenode.

  • los Namenode se identificará con su Boleto.

  • Ambos Billete de Namenode y cliente Hadoop Tickets de servicio serán verificados entre sí.

  • Ambos están seguros de que se están comunicando con un entidad autenticada.

  • Se llama Autenticacion mutua.

  • La siguiente etapa es Autorización. El Namenode le proporcionará la Servicio por el cual has recibido el autorización.

  • Finalmente, la última etapa es Revisión de cuentas. Aquí tu actividad estarán registrado para propósitos de seguridad.

    java cómo salir del programa

Con esto llegamos al final de este artículo . Espero haber arrojado algo de luz sobre sus conocimientos sobre un Seguridad de Hadoop.

Ahora que ha entendido Hadoop y su seguridad, consulte la por Edureka, una empresa de aprendizaje en línea de confianza con una red de más de 250.000 alumnos satisfechos repartidos por todo el mundo. El curso de formación de certificación de Edureka Big Data Hadoop ayuda a los alumnos a convertirse en expertos en HDFS, Yarn, Mapa reducido , Pig, Hive, HBase, Oozie, Flume y Sqoop utilizando casos de uso en tiempo real en el dominio de Retail, Social Media, Aviación, Turismo, Finanzas.

Si tiene alguna consulta relacionada con este 'Seguridad de Hadoop' artículo, escríbanos en la sección de comentarios a continuación y le responderemos lo antes posible.