Todo lo que has de saber sobre el Big data


Las muchas funciones del big data en RRHH


Los recursos humanos no han sido de forma tradicional conocidos por usar big data... o por tener conjuntos de datos lo suficientemente grandes para utilizarlos en el análisis. Mas eso ha ido cambiando a medida que más organizaciones reconocen la presencia y el potencial de el big data en múltiples áreas de RRHH.



Erik van Vulpen escribe para la Academia para Innovar los Recursos Humanos que aunque los datos de RRHH pueden carecer de volumen y ser en gran parte estáticos, tienen suficiente pluralidad y valor para generar valiosos conocimientos sobre la fuerza de trabajo por medio de la inteligencia de negocios y el análisis de RRHH.



Aquí hay una mirada a múltiples áreas donde el big data de recursos humanos tienen potencial.



Optimar el reclutamiento y la retención


El reclutamiento de empleados de calidad es un proceso costoso y que requiere mucho tiempo, por lo que los departamentos de recursos humanos están motivados para localizar personas que se queden y animar a los empleados actuales a no irse. el big data pueden ayudar de varias formas.

Cuando se aplican a la contratación, los empleadores pueden emplear big data para pronosticar mejor las necesidades de contratación, al tiempo que mejoran la calidad de la misma y la retención de los empleados, afirma John Feldmann de Insperity a Forbes. Al extraer los datos de los empleados y también identificar los patrones relacionados con las habilidades, las calificaciones de desempeño, la permanencia, la educación, los roles pasados, etcétera, las compañías pueden reducir su tiempo de contratación, mejorar el compromiso y la productividad de los empleados y minimizar la rotación de personal.

En lo que se refiere a la retención, con la ayuda de la tecnología de big data, los algoritmos pueden apuntar a los empleados que corren el riesgo de irse interpretando su actividad en línea, las actualizaciones de sus perfiles, su historial de empleo, su rendimiento laboral y sus datos de nómina, escribe Vikash Kumar para AIIM -- La Asociación para la Administración Inteligente de la Información. Cuando el sistema apunta a un empleado muy valioso, tienes la oportunidad de retenerlo ofreciéndole un aumento de sueldo, un papel más desafiante o bien más adiestramiento (y desarrollo).

Para el reclutamiento, Kumar añade, Los modelos de análisis de RRHH pueden usar los registros de los empleados exitosos para edificar un perfil de alto desempeño. Lo que se consigue es una herramienta de busca de talentos que puede enviar mensajes personalizados al talento adecuado.

Grandes herramientas de administración de datos y análisis de negocios que precisa conocer




Plataforma de Automatización de Procesos Metódicos Alteryx (APA)


La Plataforma de Automatización de Procesos Metódicos (APA) de Alteryx es un sistema de automatización de procesos analíticos, de aprendizaje automático y de ciencias de la información de extremo a extremo, empleado por analistas y científicos de datos para preparar, mezclar, enriquecer y analizar datos. El Centro Analítico trabaja con la APA de Alteryx para consolidar los activos analíticos en un sistema donde se puede acceder y compartir por los trabajadores de datos. Intelligence Suite, parte de la actualización de la plataforma Alteryx APA dos mil veinte.2, trabaja con Analytics Hub y Alteryx Designer para asistir a los usuarios sin conocimientos de ciencia de datos a edificar modelos predictivos.


Plataforma de datos Cloudera Nube privada


Cloudera Data Platform Private Cloud extiende la velocidad nativa de la nube, la simplicidad y la economía de la plataforma de datos Cloudera y sus capacidades de ciclo de vida de datos al centro de datos. Construido para entornos de nube híbridos, Cloudera Data Platform Private Cloud ayuda a la administración de TI a satisfacer mejor la necesidad de acceso a los datos para labores de análisis y aprendizaje automático, al paso que facilita la administración de la plataforma con herramientas de gestión basadas en contenedores. Cloudera Data Platform Private Cloud puede reducir los costos del centro de datos al aumentar la utilización de los servidores en un 70 por ciento, mientras que también reduce el almacenamiento y los gastos generales del centro de datos, conforme la compañía.


Logi Analytics Logi Composer


Logi Composer ofrece a los ISV y a los desarrolladores corporativos una forma de crear capacidades de análisis empresarial de autoservicio directamente en aplicaciones y flujos de trabajo comerciales e internos. Logi Composer se emplea para diseñar, edificar e integrar cuadros de mando interactivos y visualizaciones de datos en las aplicaciones y desarrollar conexiones con las fuentes de datos populares que los sustentan. El procesamiento de consultas de fondo de la herramienta está impulsado por la tecnología de conectores de datos inteligentes Logi Analytics, adquirida en 2019 cuando adquirió Zoomdata.



Scylla Enterprise 2020


Scylla Enterprise dos mil veinte es una versión esencial de la base de datos NoSQL de alto rendimiento de ScyllaDB para grandes cargas de trabajo de datos en tiempo real. ScyllaDB posiciona su software como una alternativa a Amazon DynamoDB y Scylla Enterprise dos mil veinte incluye Alternator, un API compatible con DynamoDB que ayuda a los usuarios de DynamoDB a mudar a Scylla sin cambiar el código de la aplicación. La nueva versión asimismo incluye nuevas capacidades de atrapa de datos de cambio y una nueva función de Transacciones Ligeras que amplía las opciones de consistencia de datos de ScyllaDB.


Cuadro dos mil veinte.3


La última actualización de la plataforma de análisis de negocios de Tableau proporciona una nueva función de escritura en la base de datos, que ofrece la posibilidad de dar salida y actualizar bases de datos externas directamente desde Tableau Prep Builder. Por lo tanto, la actualización de Tableau amplía la plataforma para servir a un conjunto más extenso de necesidades de preparación de datos. El lanzamiento asimismo añade una serie de nuevos conectores de terceros a la Galería de Extensión de Tableau, incluyendo conectores construidos por ciertos asociados tecnológicos de la empresa: Actian, Dremio, Elasticsearch, Ocient, Qubole, Sqream y Yellowbrick, con más en desarrollo.



Lo que el big data significan para su pequeña empresa



En un planeta cada vez más digital, la cantidad de datos que una pequeña empresa debe examinar aumenta cada año. Aprende lo que significan el big data para tu PYME.


Internet solo existe desde hace 3 décadas, pero en ese tiempo relativamente corto, se ha transformado en una de las herramientas más esenciales a nuestra disposición colectiva. Como propietario de una pequeña empresa, puede emplearla para compendiar datos que le ayuden a tomar decisiones comerciales informadas, ejecutar análisis predictivos para futuras ventas y progresar la experiencia del cliente.

Todas esas funciones son el resultado de big data. Al aprender a digerirlos y usarlos, su pequeña empresa puede transformar una valiosa información en acción.

¿Qué es el big data?


En su núcleo, big data es lo que semeja. Gracias a los avances en la tecnología, podemos recoger y entender conjuntos de datos masivos y complejos que fluyen a una velocidad increíble. Puesto que estos grandes conjuntos de datos pueden proceder de una amplia gama de fuentes a un volumen que los humanos no pueden comprender, confiamos en un avanzado software de procesamiento de datos para hacer que esos datos sean aprovechables.

Sitios como Internet Live Stats facilitan la visualización de big data y la velocidad a la que una cantidad insalubre de información fluye por medio de Internet. Por ejemplo, ILS estima que 100,5 Terabytes de tráfico de Internet, ochenta y cinco y ochocientos treinta y seis búsquedas en Google y 9.139 tuits se mandan en un solo segundo.

Sin embargo, el big data proceden de más fuentes que solo la Internet. La computadora de a bordo de su auto recoge miles y miles de puntos de datos sobre sus hábitos de conducción que el fabricante puede utilizar para determinar futuros cambios en sus autos, al tiempo que los proveedores de seguros pueden usar esos datos para ajustar sus tarifas.

Las grandes herramientas de datos modernas nos permiten examinar rápidamente los resultados del pasado y el estado del presente para decidir qué acción sería la más eficaz en una situación particular, afirmó Ivan Kot, gerente senior de Itransition.

A través del uso de dicha herramienta, afirmó Kot, el tipo de datos que fluyen mediante una fuente externa (como Internet) o bien una fuente interna (como los centros de llamadas internos y los registros de sitios web) puede asistir a las pequeñas empresas a predecir los resultados, prevenir el fraude y también impulsar la innovación.

¿Cómo funciona el big data?


Puede asistir a comprender el big data en concepto de pesca comercial. Si tratas de dirigir un negocio siendo el único pescador parado al lado de un riachuelo, no vas a producir muchos peces. No obstante, si tienes una flota de barcos, cada uno de ellos con grandes trampas y extensas redes, obtendrás muchos peces de múltiples especies. Los programas de datos grandes son como esa flota de barcos, y los peces son todos y cada uno de los diferentes géneros de datos que generamos día tras día.

Una vez recogidos, los datos son analizados por las empresas que usan las técnicas de big data. Este análisis deja a un científico de datos entender una multitud de formas en que una compañía puede ser más eficiente y aumentar los beneficios. el big data funcionan para algo más que las necesidades de los consumidores - el campo médico asimismo emplea esos datos para pronosticar mejor la propagación de enfermedades.

Las compañías usan el big data para obtener información sobre una serie de cosas, incluyendo los patrones y comportamientos de los clientes - más comúnmente, los comportamientos de adquiere, afirmó Jack Zmudzinski, asociado senior de Future Processing. La razón por la cual el big data son tan vitales para los negocios es que pueden asistir a identificar nuevas ocasiones de crecimiento e incluso nuevas industrias a través del examen de la información de los clientes.

Un científico de datos puede emplear el big data para suministrar un contexto a través de consultas para identificar los conocimientos y los resultados de los datos. La automatización y las herramientas de flujo de trabajo automatizarían entonces las acciones basadas en los datos, según James Ford, que tiene un doctorado en ciencias de los datos y es el cofundador de AutoBead.

Tradicionalmente, las clases de tecnología empleados por quienes invertían en grandes iniciativas de datos incluían géneros de bases de datos como SQL o bien NoSQL, que se conectaban a través de un autobus de servicio empresarial (integraciones de bases de datos y puntos finales), lo que normalizaba los datos y dejaba que funcionaran juntos, afirmó Ford. Las soluciones de procesamiento de datos a gran escala como Apache Hadoop o bien Databricks permiten el procesamiento y análisis de datos a gran escala.

Gracias al avance de la computación en nube, dijo Ford, el software de base de datos como el Cosmos DB de Microsoft Azure puede albergar múltiples tipos de bases de datos en una sola base de datos. Debido a ello, los equipos ya no necesitan invertir en costosos y complicados sistemas de integración, puesto que todos los datos existen en un solo lugar, separados por políticas de seguridad y lógica en lugar de API y distancia.




Cómo el big data pueden asistir a las finanzas de las empresas


el big data son ahora parte de nuestra vida rutinaria, ¡incluso si somos siendo conscientes de ello o no! La analítica, la IA y otros programas de datos en funcionamiento recogen continuamente información, que nos da una idea de quién, qué y dónde ocurre una transacción. Las empresas más grandes han incorporado estos datos para satisfacer la siempre y en todo momento cambiante demanda de los clientes del servicio y fomentar las ventajas y atenuar las pérdidas.

Sin embargo, esta información compendiada puede ser bastante inútil cuando se trata de datos salvo que esté clasificada, y las compañías saben lo que buscan. Esto significa que los datos entrantes deben organizarse de forma eficaz para que las compañías puedan emplearlos para identificar la información sobre sus finanzas y obrar en consecuencia con los datos.

En el artículo se discutirá de qué manera el big data pueden ayudar a las finanzas de las empresas y qué hay que buscar para hacer las mejoras.


Perspectivas en tiempo real de el big data


Uno de los beneficios más prominentes que el big data tienen para ofrecer a un negocio es la entendimiento en tiempo real. Jamás antes habíamos sido capaces de monitorear los precios de la demanda con precisión, nuestros contendientes, las tendencias en el mercado de valores, o incluso las tendencias políticas y sociales justo cuando suceden. Debido a la cantidad de datos que se recogen, los datos apropiados y relevantes son entonces tamizados, y esto puede ser organizado y presentado como un medio para guiar la próxima resolución del negocio.



Aceleración de los procesos manuales


Los procesos pueden valer más dinero del necesario tratándose de pagar a los empleados. Singularmente cuando muchos procesos manuales pueden acelerarse o aun automatizarse debido a la información que ofrecen los datos. el big data no sólo pueden ahorrar horas de trabajo informático, sino también pueden ofrecer información sobre las transacciones al día de los clientes sin que alguien tenga que valorarlas manualmente.




Big data: ¿Qué tan extenso ha de ser tu lente? Depende de su empleo


La cantidad de datos que entran en su sistema puede marcar una gran diferencia en su almacenaje, ancho de banda y presupuesto. Considere la posibilidad de reducir su apertura.

Con big data que llegan a las organizaciones de todo el planeta a razón de 2,5 quintillones de bytes de datos día tras día, corresponde a las organizaciones determinar qué cantidad de estos big data es vital y necesaria, y qué porciones de el big data son excesivas y pueden eliminarse antes que los datos lleguen a los sistemas corporativos. Si las empresas no lo hacen, el ancho de banda, el almacenaje y las capacidades de procesamiento se pueden sobrepasar, junto con los presupuestos.

Para cada operación y análisis que las compañías efectúan con big data, la clave es definir cada caso de empleo comercial de antemano y predeterminar la cantidad de datos que realmente precisará para abordar el caso comercial. Inevitablemente, va a haber algunos datos que simplemente no se precisan. Separar estos datos de su proceso de ingestión de datos es lo que yo llamo estrechar la apertura de la lente a través de la que los datos fluyen cara su depósito de datos.

Aquí hay dos ejemplos discordantes de ajuste de la lente de datos:

IBM RoboRXN y la mecánica de la formulación molecular


Cuando IBM diseñó su proyecto RoboRXN, que recoge enormes cantidades de datos no editados de la comunidad mundial de código abierto y otros sobre posibles combinaciones moleculares para la formulación de productos, hubo que tomar resoluciones sobre la cantidad de esos datos que era pertinente para el proyecto en el que estaban trabajando.

El proyecto RoboRXN se centró en el diseño de nuevas moléculas para soluciones farmacéuticas, como la vacuna COVID-diecinueve. Esto significaba que no se necesitaban libros blancos, resultados de investigaciones estadísticas y otras fuentes de investigación que no tenían relación directa con el proyecto de formulación molecular en el que se trabajaba. Lo que IBM decidió hacer fue implementar la inteligencia artificial (IA) al frente del proceso de ingestión de datos mientras este enorme tesoro de datos no editados se estaba amontonando.

El algoritmo de IA propuso una pregunta importante: ¿Cada elemento de los datos entrantes contenía algo relevante para el enfoque del proyecto? Para las investigaciones que no estaban en absoluto relacionadas con el proyecto, o que solo estaban relacionadas de forma distante y tangencial, la IA suprimió los datos, por lo que nunca fueron aceptados en el depósito de datos. En otras palabras, la apertura de la lente de datos al repositorio de datos del proyecto se estrechó, aceptando sólo aquellos elementos de datos que eran relevantes para el proyecto. Como resultado, se redujo el almacenamiento y el procesamiento de datos, y también el costo.

El SETI y la busca de vida extraterrestre


Fundado en mil novecientos ochenta y cuatro, la misión del Instituto SETI era buscar vida extraterrestre. Esto se hizo mediante la vigilancia de las señales de radio y las emisiones del espacio para determinar si había algún patrón repetitivo que pudiera representar una comunicación de otro modo de vida. Científicos y voluntarios participaron en la iniciativa del SETI, examinando meticulosamente montañas de señales de radio sin editar que fluían sin cesar.

En este esfuerzo, se pudieron hacer pocas suposiciones de antemano sobre los datos buenos en frente de los malos, pues nadie estaba completamente seguro de lo que buscaba. En consecuencia, había pocas formas de estrechar la apertura de la lente de datos, que debía sostenerse abierta. Esto dio sitio a altos niveles de procesamiento, almacenamiento y trabajo manual.

Lo que el Instituto pudo hacer fue reducir los datos después de haberlos buscado en suma para hallar señales potenciales que pudiesen indicar formas de vida inteligentes. En este punto, sólo las señales con potencial de vida precisaban ser guardadas en bases de datos considerablemente más pequeñas.


¿Por qué razón hay una mayor demanda de científicos de datos?


Conforme cada empresa se convierte en una empresa tecnológica hasta cierto punto, aumenta la necesidad de profesionales cualificados que puedan examinar esos datos y conseguir conocimientos empresariales.

A medida que el tamaño de los datos de las empresas medra, hay una mayor demanda de empleados con habilidades concretas que puedan organizar y analizar eficazmente estos datos, afirmó Pablo Ruiz Tallo, investigador económico de Glassdoor, a TechRepublic. Al mismo tiempo, la cantidad de personas con estas habilidades es aún relativamente baja en comparación con la demanda, lo que resulta en un mayor salario.


Certificaciones en ciencias de la información para progresar tu currículo y tu salario.


A finales de agosto, Glassdoor tenía más de cincuenta y tres ofertas de trabajo que mentaban el aprendizaje automático (ML) y 20.000 trabajos que incluían la ciencia de los datos con sueldos que iban de 50.000 a más de ciento ochenta dólares. Poco a poco más empresas están haciendo del análisis de datos y del aprendizaje automático un elemento central del desarrollo de nuevos productos y de las ocasiones de ingresos futuros.

Las grandes empresas de tecnología, así como las organizaciones tecnológicas independientes, ofrecen programas de formación para personas que son nuevas en la ciencia de los datos, de esta manera como para profesionales que quieren dominar la tecnología más reciente. Cada programa de esta lista de los mejores cursos on line para la ciencia de los datos ampliará su experiencia y agregará un valioso elemento de línea en forma de certificación de ciencia de los datos a su currículo.

Certificado profesional de ciencias de los datos de IBM


IBM ofrece este programa en Coursera, que es dado por empleados de la empresa. Los estudiantes de este curso van a tomar una serie de laboratorios prácticos en la nube de IBM que dan experiencia con Jupyter/JupyterLab, GitHub, R Studio y Watson Studio.

Este programa en línea toma en torno a diez meses para completarse y tiene nueve cursos:

  • Qué es la ciencia de los datos Herramientas para la ciencia de los datos

  • Metodología de la ciencia de los datos

  • Pitón para la ciencia de los datos y la IA

  • Bases de datos y SQL para la ciencia de los datos

  • Análisis de datos con Python

  • Visualización de datos con Python

  • Aprendizaje de máquinas con Python

  • La piedra angular de la ciencia de los datos aplicados




Certificaciones de científicos de datos del SAS


La Academia SAS para la Ciencia de los Datos ofrece tres credenciales de nivel profesional para los científicos de los datos:

  1. La conservación de los datos

  2. Análisis avanzados

  3. La IA y el aprendizaje automático


SAS ofrece una prueba gratuita de treinta días a fin de que la gente pueda comprobar las herramientas, las oportunidades de aprendizaje práctico y los estudios de casos que forman parte del programa de capacitación. Asimismo hay cursos gratuitos de aprendizaje electrónico sobre estadística y programación y administración de SAS.

El programa de conservación de datos está diseñado para personas que quieren cuantificar su experiencia con las herramientas y aplicaciones de administración de datos de SAS, como otras herramientas para preparar los datos para el análisis estadístico. El programa incluye cuatro cursos de capacitación y un bono para el examen de certificación, incluyendo:

  1. Introducción a la conservación de datos

  2. Herramientas y aplicaciones de gestión de datos del SAS

  3. SAS y Hadoop

  4. Herramientas y aplicaciones avanzadas de administración de datos del SAS


Antes de anotarse en este curso, las personas deben tener experiencia con los fundamentos de la programación SAS, las técnicas de manipulación de datos y el procesamiento SQL. SAS ofrece clases de preparación para el examen en el programa Profesional de Curado de Datos.

El programa profesional de análisis avanzado incluye nueve cursos on line, 12 meses de acceso a la capacitación, 100 horas de acceso al software de nube, y 3 vales de examen. Los cursos incluyen:

  1. Analítica aplicada usando SAS Enterprise Miner

  2. Modelado de la red neuronal

  3. Modelización predictiva mediante regresión logística

  4. Técnicas de minería de datos

  5. Modelos de código abierto

  6. Analítica de texto usando SAS Text Miner

  7. Esenciales para el modelado de series temporales

  8. La experimentación en la ciencia de los datos

  9. Conceptos de optimización para la ciencia de los datos


SAS recomienda que los estudiantes tengan cuando menos seis meses de experiencia en programación y en el empleo de estadísticas en un entorno empresarial.

El programa esta web profesional de aprendizaje de la IA y la máquina incluye 5 cursos en línea, setenta horas de acceso al software de la nube y tres vales de examen. SAS aconseja a las personas interesadas en este programa que tengan experiencia en programación, SAS Viya, modelos de regresión y modelos de redes neuronales. Los cursos son:

  1. Aprendizaje automático con SAS Viya

  2. Análisis de texto visual de SAS en SAS Viya

  3. Aprendizaje profundo usando el software SAS

  4. Pronóstico con Model Studio en SAS Viya

  5. Conceptos de optimización para la ciencia de los datos y la IA


Cada programa cuesta 1.295 dólares americanos al año y requiere pasar varios exámenes para conseguir cada certificación. SAS ofrece una mezcla de clases de preparación de exámenes gratuitas y pagadas.

Los exámenes de certificación de SAS se pueden tomar desde casa por medio de los exámenes supervisados online de OnVUE.

Leave a Reply

Your email address will not be published. Required fields are marked *