Beneficios:
- Híbrido
- Salario competitivo
- Oportunidad de avance
Título del trabajo: Ingeniero de datos de AWS
Ubicación: Dallas, TX (Híbrido – 3 días en el sitio)
Experiencia: 8-12 años
Proceso de entrevista: En persona
Perfiles: Los locales y no locales pueden aplicar
Visión general
Buscamos un ingeniero de datos de AWS con experiencia y gran experiencia en ETL, migración a la nube e ingeniería de datos a gran escala. El candidato ideal es práctico con AWS, Python/PySpark y SQL, y puede diseñar, optimizar y administrar canalizaciones de datos complejas. Este rol requiere la colaboración entre equipos para ofrecer soluciones de datos seguras, escalables y de alta calidad que impulsen la inteligencia empresarial y la eficiencia operativa.
Responsabilidades clave
- Diseñar, crear y mantener canalizaciones ETL escalables en tecnologías basadas en AWS y SQL.
- Ensamble conjuntos de datos grandes y complejos que cumplan con los requisitos comerciales y técnicos.
- Implemente mejoras en los procesos mediante la rearquitectura de la infraestructura, la optimización de la entrega de datos y la automatización de los flujos de trabajo.
- Garantizar la calidad e integridad de los datos en múltiples fuentes y destinos.
- Organice flujos de trabajo con Apache Airflow (MWAA) y admita proyectos de migración a la nube a gran escala.
- Realizar pruebas ETL, aplicar el desarrollo basado en pruebas (TDD) y participar en revisiones de código.
- Supervise, solucione problemas y optimice las canalizaciones para el rendimiento, la confiabilidad y la seguridad.
- Colaborar con equipos multifuncionales y participar en ceremonias ágiles (sprints, revisiones, stand-ups).
Requisitos
- 8-12 años de experiencia en ingeniería de datos, con un profundo enfoque en ETL, canalizaciones en la nube y desarrollo de Python.
- 5+ años de codificación práctica con Python (principal), PySpark y SQL.
- Experiencia comprobada con los servicios de AWS: Glue, EMR (Spark), S3, Lambda, ECS/EKS, MWAA (Airflow), IAM.
- Experiencia con AuroraDB, DynamoDB Redshift y AWS Data Lakes.
- Sólidos conocimientos de modelado de datos, diseño de bases de datos y procesos ETL avanzados (incluido Alteryx).
- Dominio de tipos de archivos estructurados y semiestructurados (texto delimitado, ancho fijo, XML, JSON, parquet).
- Experiencia con ServiceBus o herramientas equivalentes de streaming/mensajería de AWS (SNS, SQS, Kinesis, Kafka).
- Experiencia en CI/CD con GitLab o similar, además de infraestructura práctica como código (Terraform, Python, Jinja, YAML).
- Familiaridad con las pruebas unitarias, las herramientas de calidad del código, la contenedorización y las mejores prácticas de seguridad.
- Sólida formación en desarrollo ágil, con experiencia en ceremonias y prácticas ágiles.
Ubicación: Dallas, TX (Híbrido – 3 días en el sitio)
Experiencia: 8-12 años
Proceso de entrevista: En persona
Perfiles: Los locales y no locales pueden aplicar
Visión general
Buscamos un ingeniero de datos de AWS con experiencia y gran experiencia en ETL, migración a la nube e ingeniería de datos a gran escala. El candidato ideal es práctico con AWS, Python/PySpark y SQL, y puede diseñar, optimizar y administrar canalizaciones de datos complejas. Este rol requiere la colaboración entre equipos para ofrecer soluciones de datos seguras, escalables y de alta calidad que impulsen la inteligencia empresarial y la eficiencia operativa.
Responsabilidades clave
- Diseñar, crear y mantener canalizaciones ETL escalables en tecnologías basadas en AWS y SQL.
- Ensamble conjuntos de datos grandes y complejos que cumplan con los requisitos comerciales y técnicos.
- Implemente mejoras en los procesos mediante la rearquitectura de la infraestructura, la optimización de la entrega de datos y la automatización de los flujos de trabajo.
- Garantizar la calidad e integridad de los datos en múltiples fuentes y destinos.
- Organice flujos de trabajo con Apache Airflow (MWAA) y admita proyectos de migración a la nube a gran escala.
- Realizar pruebas ETL, aplicar el desarrollo basado en pruebas (TDD) y participar en revisiones de código.
- Supervise, solucione problemas y optimice las canalizaciones para el rendimiento, la confiabilidad y la seguridad.
- Colaborar con equipos multifuncionales y participar en ceremonias ágiles (sprints, revisiones, stand-ups).
Requisitos
- 8-12 años de experiencia en ingeniería de datos, con un profundo enfoque en ETL, canalizaciones en la nube y desarrollo de Python.
- 5+ años de codificación práctica con Python (principal), PySpark y SQL.
- Experiencia comprobada con los servicios de AWS: Glue, EMR (Spark), S3, Lambda, ECS/EKS, MWAA (Airflow), IAM.
- Experiencia con AuroraDB, DynamoDB Redshift y AWS Data Lakes.
- Sólidos conocimientos de modelado de datos, diseño de bases de datos y procesos ETL avanzados (incluido Alteryx).
- Dominio de tipos de archivos estructurados y semiestructurados (texto delimitado, ancho fijo, XML, JSON, parquet).
- Experiencia con ServiceBus o herramientas equivalentes de streaming/mensajería de AWS (SNS, SQS, Kinesis, Kafka).
- Experiencia en CI/CD con GitLab o similar, además de infraestructura práctica como código (Terraform, Python, Jinja, YAML).
- Familiaridad con las pruebas unitarias, las herramientas de calidad del código, la contenedorización y las mejores prácticas de seguridad.
- Sólida formación en desarrollo ágil, con experiencia en ceremonias y prácticas ágiles.
Opciones flexibles de trabajo desde casa disponibles.
Compensación: $60.00 - $65.00 por hora
Sobre nosotros
Trabajamos para ofrecer rentabilidad en su negocio, con comunicación efectiva, consultoría y soluciones interactivas. Siguiendo un enfoque de trabajo ágil, nos aseguramos de que obtenga las soluciones ideales a un costo mínimo.
Enfoque de trabajo
Nuestra Filosofía
Nuestra filosofía comienza y termina en el enfoque del cliente primero. Ya sea entendiendo los requisitos de su negocio o eligiendo las tecnologías adecuadas, trabajamos como un equipo colectivo que toma todas las medidas posibles para crecer continuamente hacia nuestro objetivo común.
Nuestra filosofía comienza y termina en el enfoque del cliente primero. Ya sea entendiendo los requisitos de su negocio o eligiendo las tecnologías adecuadas, trabajamos como un equipo colectivo que toma todas las medidas posibles para crecer continuamente hacia nuestro objetivo común.
Política de trabajo
Promovemos un ambiente de trabajo colaborativo. Involucramos a todos los que trabajan en la organización en las decisiones de la comunidad y los alentamos a pensar desde una perspectiva más amplia. Nuestro proceso de trabajo promueve la flexibilidad y mantenemos un alto nivel de disciplina en diferentes niveles de ejecución.
El futuro
SelectMinds tiene años de experiencia en el dominio nos ayuda a comprender mejor la necesidad del momento. Esta comprensión nos impulsa a un futuro mejor con cada minuto que pasa. Creemos que vamos a despegar a las principales empresas de sus posiciones emblemáticas, con los productos que estamos considerando hoy.
(si ya tienes un currículum en Indeed)