it - Data Engineer - Tulsa, United States - Immobiliare
Description
è la Digital Tech Company leader in Italia negli annunci immobiliari on-line. I nostri prodotti web e mobile sono sviluppati in house ed ogni giorno lavoriamo per raggiungere un unico obiettivo: offrire la migliore piattaforma per la pubblicazione e la ricerca di annunci immobiliari. L'innovazione, l'eccellenza tecnologica, l'attenzione e il rispetto verso gli utenti sono i nostri valori fondanti che ci hanno permesso di raggiungere i nostri obiettivi e ci consentono di poter crescere ancora in dimensione e professionalità.
Immobiliare Labs è il dipartimento tecnologico di , composto da oltre 150 persone, dove vengono sviluppate tutte le soluzioni tecniche dei siti e delle app, dal design alla creazione dei software, per la maggior parte Open Source. Negli ultimi quindici anni abbiamo guidato la rivoluzione digitale nel modo di cercare casa e vogliamo impegnarci a essere pionieri anche dei cambiamenti che devono ancora avvenire.
Artificial Intelligence and Data Engineering (AIDE)
è il team di che si occupa di definire e applicare le principali metodologie di raccolta ed elaborazione dati attraverso infrastrutture di data streaming e big data, e di analizzare i dati creando a partire da questi modelli e prodotti innovativi di AI in ambito real estate da distribuire tramite microservizi o workflow di analisi e classificazione.
Mansioni
Le principali mansioni di cui ti occuperai riguarderanno la definizione e la manutenzione di architetture di data streaming e pipeline ETL per la gestione di dati interni o provenienti da fonti terze. In particolare, svolgerai attività quali:
analizzare e progettare soluzioni software scalabili, resilienti e fault tolerant, operanti su dati provenienti da sorgenti eterogenee ed orientate all'analisi dei dati e a prodotti di intelligenza artificiale;
realizzare e mantenere architetture, stream e pipeline ETL, per l'elaborazione dati implementando la comunicazione tra servizi differenti e garantendo l'integrità dei flussi di orchestrazione;
collaborare con i data scientist del team per determinare insieme i dati e la relativa elaborazione e disponibilità.
conoscenza di Python e/o Java/Spring;
conoscenza di database relazionali (es. MySQL) e query sui dati;
conoscenza di database documentali (es. MongoDB);
conoscenza di GIT.
Requisiti preferenziali:
conoscenza dei principali progetti open source per operare sui dati: Kafka, RabbitMQ, Airflow, Flink;
conoscenza Ansible, Docker, Terraform;
conoscenza di Linux e Bash;
familiarità con gli strumenti cloud (aws, google cloud) per l'Artificial Intelligence e la gestione dei dati;
conoscenza base di Snowflake.
Luogo di lavoro
Orario di lavoro
Tipo e durata del contratto e Retribuzione
Commisurati all'esperienza pregressa
Team di lavoro in continua espansione
Ambiente stimolante e meritocratico
Sviluppo tecnologico allo stato dell'arte
Opportunità di apprendimento
Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.
#J-18808-Ljbffr