Replies within 24 hours
Beneficios:
- HÍBRIDO
- Salario competitivo
- Oportunidad de avance
Ingeniero de Datos Senior – Big Data e Integración en la Nube
DALLAS, TX - HYRBID
A LARGO PLAZO
ENTREVISTA PRESENCIAL
Ingeniero de datos - L3 ROL
- Traduzca los complejos requisitos empresariales multifuncionales y las especificaciones funcionales en diseños de programas lógicos y soluciones de datos.
- Asociarse con el equipo de producto para comprender las necesidades y especificaciones del negocio.
- Resolver problemas complejos de arquitectura, diseño y negocio.
- Coordinar, ejecutar y participar en escenarios de integración de componentes (CIT), pruebas de integración de sistemas (SIT) y pruebas de aceptación del usuario (UAT) para identificar errores de aplicación y garantizar la implementación de software de calidad.
- Trabajar continuamente con equipos de desarrollo multifuncionales (analistas de datos e ingenieros de software) para crear trabajos de PySpark con Spark SQL y ayudarles a crear informes sobre las canalizaciones de datos.
- Construya, pruebe y mejore las canalizaciones de curación de datos, integre datos de una amplia variedad de fuentes como DBMS, sistemas de archivos y API para el desarrollo de varios OKR y métricas con alta calidad e integridad de datos.
- Ejecutar el desarrollo, el mantenimiento y las mejoras de las soluciones de ingesta de datos de diversos niveles de complejidad en diversas fuentes de datos como DBMS, sistemas de archivos (estructurados y no estructurados), API y streaming en infraestructura local y en la nube.
- Responsable del diseño, implementación y arquitectura de soluciones de inteligencia de datos a gran escala en torno a plataformas de big data.
- Trabajar con la construcción de estructuras de almacenamiento de datos y la creación de hechos, dimensiones, tablas de agregados, mediante modelado dimensional, esquemas de estrella y copo de nieve.
- Desarrollar aplicaciones de Spark en PySpark en un entorno distribuido para cargar una gran cantidad de archivos CSV con diferentes esquemas en tablas ORC de Hive.
- Realice transformaciones ETL en los datos cargados en Spark Data Frames y realice el cálculo en memoria.
- Desarrollar e implementar canalizaciones de datos utilizando servicios de AWS como Kinesis, S3 para procesar datos en tiempo real.
- Trabaje con herramientas de monitoreo, registro y administración de costos que se integran con AWS.
- Programe los trabajos de Spark mediante el programador de flujo de aire para supervisar su rendimiento.
....
- Asociarse con el equipo de producto para comprender las necesidades y especificaciones del negocio.
- Resolver problemas complejos de arquitectura, diseño y negocio.
- Coordinar, ejecutar y participar en escenarios de integración de componentes (CIT), pruebas de integración de sistemas (SIT) y pruebas de aceptación del usuario (UAT) para identificar errores de aplicación y garantizar la implementación de software de calidad.
- Trabajar continuamente con equipos de desarrollo multifuncionales (analistas de datos e ingenieros de software) para crear trabajos de PySpark con Spark SQL y ayudarles a crear informes sobre las canalizaciones de datos.
- Construya, pruebe y mejore las canalizaciones de curación de datos, integre datos de una amplia variedad de fuentes como DBMS, sistemas de archivos y API para el desarrollo de varios OKR y métricas con alta calidad e integridad de datos.
- Ejecutar el desarrollo, el mantenimiento y las mejoras de las soluciones de ingesta de datos de diversos niveles de complejidad en diversas fuentes de datos como DBMS, sistemas de archivos (estructurados y no estructurados), API y streaming en infraestructura local y en la nube.
- Responsable del diseño, implementación y arquitectura de soluciones de inteligencia de datos a gran escala en torno a plataformas de big data.
- Trabajar con la construcción de estructuras de almacenamiento de datos y la creación de hechos, dimensiones, tablas de agregados, mediante modelado dimensional, esquemas de estrella y copo de nieve.
- Desarrollar aplicaciones de Spark en PySpark en un entorno distribuido para cargar una gran cantidad de archivos CSV con diferentes esquemas en tablas ORC de Hive.
- Realice transformaciones ETL en los datos cargados en Spark Data Frames y realice el cálculo en memoria.
- Desarrollar e implementar canalizaciones de datos utilizando servicios de AWS como Kinesis, S3 para procesar datos en tiempo real.
- Trabaje con herramientas de monitoreo, registro y administración de costos que se integran con AWS.
- Programe los trabajos de Spark mediante el programador de flujo de aire para supervisar su rendimiento.
....
Opciones flexibles de trabajo desde casa disponibles.
Compensación: $100,000.00 - $120,000.00 por hora
Sobre nosotros
Trabajamos para ofrecer rentabilidad en su negocio, con comunicación efectiva, consultoría y soluciones interactivas. Siguiendo un enfoque de trabajo ágil, nos aseguramos de que obtenga las soluciones ideales a un costo mínimo.
Enfoque de trabajo
Nuestra Filosofía
Nuestra filosofía comienza y termina en el enfoque del cliente primero. Ya sea entendiendo los requisitos de su negocio o eligiendo las tecnologías adecuadas, trabajamos como un equipo colectivo que toma todas las medidas posibles para crecer continuamente hacia nuestro objetivo común.
Nuestra filosofía comienza y termina en el enfoque del cliente primero. Ya sea entendiendo los requisitos de su negocio o eligiendo las tecnologías adecuadas, trabajamos como un equipo colectivo que toma todas las medidas posibles para crecer continuamente hacia nuestro objetivo común.
Política de trabajo
Promovemos un ambiente de trabajo colaborativo. Involucramos a todos los que trabajan en la organización en las decisiones de la comunidad y los alentamos a pensar desde una perspectiva más amplia. Nuestro proceso de trabajo promueve la flexibilidad y mantenemos un alto nivel de disciplina en diferentes niveles de ejecución.
El futuro
SelectMinds tiene años de experiencia en el dominio nos ayuda a comprender mejor la necesidad del momento. Esta comprensión nos impulsa a un futuro mejor con cada minuto que pasa. Creemos que vamos a despegar a las principales empresas de sus posiciones emblemáticas, con los productos que estamos considerando hoy.
(si ya tienes un currículum en Indeed)