Ingeniero/a de Datos en Apside

FULL_TIME

  Remoto | Semi Senior | Full time | Data Science / Analytics

Sueldo bruto $1700 - 2200 USD/mes

56 postulaciones
Responde entre 0 y 10 días
Revisado por última vez hoy
Postular
Requiere postular en Español

Con más de 10 años de experiencia en el mercado y un crecimiento constante, nos destacamos por centrarnos en el desarrollo profesional de nuestros talentos. Trabajamos en proyectos variados, abarcando sectores como seguros, retail, banca, gobierno e innovación pública.
Nuestro equipo está compuesto por profesionales altamente calificados en la industria, con una amplia experiencia y apasionados por la tecnología. Fomentamos una relación con profesionales autónomos que valoran la excelencia técnica y la búsqueda constante de conocimiento.
¡Somos una empresa 100% remota, con personas en diferentes países de América Latina!

¿Que ofrecemos?
Te ofrecemos formar parte de un equipo con un muy buen ambiente de trabajo, multicultural, con personas que valoran la autonomia, el trabajo en equipo y el respeto mutuo.

Contamos con excelentes beneficios para nuestros Apsiders: Salud, Bienestar, Educación y diferentes bonos que se ajustan a las necesidades de nuestros talentos.

Aplica directamente en getonbrd.com.

¿Qué harás en este rol?

  • Serás protagonista en la construcción de pipelines de datos modernos y escalables con Apache Airflow (Composer) sobre GCP, asegurando su rendimiento y confiabilidad.
  • Impulsarás el procesamiento avanzado de datos aplicando Python y PySpark dentro del ecosistema Hadoop, aportando eficiencia y flexibilidad.
  • Diseñarás e implementarás infraestructura como código con Terraform, y explorarás el potencial de las arquitecturas serverless mediante Cloud Functions y Cloud Run.
  • Tendrás un rol activo en la automatización y despliegue continuo, participando en prácticas de CI/CD con GitHub Actions y flujos de trabajo colaborativos en Git.
  • Formarás parte del desarrollo de un Data Lake empresarial en GCP, incorporando estándares de calidad, seguridad y catalogación de datos.
  • Trabajarás de la mano con equipos de gobierno de datos, contribuyendo a definir políticas, estándares y procesos que garanticen la correcta gestión del ciclo de vida de la información.
  • Contribuirás al empaquetado y despliegue de soluciones en entornos de contenedores como Docker, Kubernetes y GKE, asegurando escalabilidad y eficiencia.
  • Velarás por la confiabilidad de los entornos de datos a través de monitoreo, logging y alertas efectivas, anticipándote a problemas y garantizando continuidad.

¿Que buscamos para este rol?

  • Más de 5 años experiencia demostrable como Ingeniero/a de Datos.
  • Haber estudiado una carrera, tal como, Ingeniería Civil en Computación e Informática, Ingeniería en Informática / Sistemas / o similar.
  • Experiencia en Apache Airflow (Composer) sobre GCP para la orquestación de pipelines de datos.
  • Dominio de Python y PySpark, con experiencia en el ecosistema Hadoop.
  • Conocimientos en Terraform (IaC) y en arquitecturas serverless con Cloud Functions y Cloud Run.
  • Práctica en CI/CD, especialmente con GitHub Actions y flujos de trabajo en Git.
  • Experiencia en la construcción y gestión de Data Lakes en GCP, aplicando estándares de calidad, seguridad y catalogación de datos.
  • Familiaridad con prácticas de gobierno de datos, incluyendo definición y aplicación de políticas y procesos de ciclo de vida de la información.
  • Manejo de contenedores y despliegue en Docker, Kubernetes y GKE.
  • Buenas prácticas en monitoreo, logging y alertas para entornos y pipelines de datos.
  • Se valorará contar con certificaciones GCP (ej: Professional Data Engineer o Cloud Architect), experiencia en entornos regulados (ISO, GDPR, etc.), así como haber colaborado con Data Stewards y Arquitectos de Datos.

¿Que te daría un plus++?

  • Experiencia con BigQuery u otros motores de consulta en la nube.
  • Familiaridad con modelos de Machine Learning o ML pipelines en entornos productivos.
  • Experiencia con herramientas de observabilidad como Prometheus, Grafana o Stackdriver.
  • Conocimientos en arquitecturas de datos en tiempo real (ej: Pub/Sub, Kafka).

GETONBRD Job ID: 55689

Condiciones

Programas de bienestar Apside ofrece o subsidia programas de bienestar mental y/o físico.
Trabajo 100% remoto El cargo puede ser desempeñado desde cualquier lugar del mundo.
Mascotas permitidas Las mascotas son bienvenidas en la oficina.
Espacios para charlas internas Apside entrega espacio para realizar presentaciones o charlas en horarios de trabajo.
Seguro de vida Apside paga un seguro de vida para sus empleados.
Cobertura de salud Apside paga o copaga cobertura de salud adicional a lo legal.
Reparaciones para tu computadora Apside cubre algunos gastos de reparaciones en caso de desperfectos.
Seguro dental Apside paga o copaga un seguro dental.
Bono de educación Apside cubre algunos gastos de educación relacionados con el puesto.
Coaching personal Apside ofrece consejería personal para sus empleados.

Política de trabajo remoto

Totalmente remoto

El trabajo es 100% remoto desde cualquier país.

  1. Empleos
  2. Data Science / Analytics
  3. Apside
  4. Ingeniero/a de Datos

Acerca de Apside

Valoramos profundamente el profesionalismo y compromiso en nuestro equipo, el que cuenta con amplia experiencia en el desarrollo de proyectos, una fuerte orientación al cliente y un alto nivel técnico. — Perfil completo de Apside

Postula
Requiere postular en Español
Compartir este empleo Compartir