it - Data Engineer - Tulsa, United States - Immobiliare

    Immobiliare
    Immobiliare Tulsa, United States

    1 week ago

    Default job background
    Description



    è la Digital Tech Company leader in Italia negli annunci immobiliari on-line. I nostri prodotti web e mobile sono sviluppati in house ed ogni giorno lavoriamo per raggiungere un unico obiettivo: offrire la migliore piattaforma per la pubblicazione e la ricerca di annunci immobiliari. L'innovazione, l'eccellenza tecnologica, l'attenzione e il rispetto verso gli utenti sono i nostri valori fondanti che ci hanno permesso di raggiungere i nostri obiettivi e ci consentono di poter crescere ancora in dimensione e professionalità.
    Immobiliare Labs è il dipartimento tecnologico di , composto da oltre 150 persone, dove vengono sviluppate tutte le soluzioni tecniche dei siti e delle app, dal design alla creazione dei software, per la maggior parte Open Source. Negli ultimi quindici anni abbiamo guidato la rivoluzione digitale nel modo di cercare casa e vogliamo impegnarci a essere pionieri anche dei cambiamenti che devono ancora avvenire.
    Artificial Intelligence and Data Engineering (AIDE)

    è il team di che si occupa di definire e applicare le principali metodologie di raccolta ed elaborazione dati attraverso infrastrutture di data streaming e big data, e di analizzare i dati creando a partire da questi modelli e prodotti innovativi di AI in ambito real estate da distribuire tramite microservizi o workflow di analisi e classificazione.
    Mansioni
    Le principali mansioni di cui ti occuperai riguarderanno la definizione e la manutenzione di architetture di data streaming e pipeline ETL per la gestione di dati interni o provenienti da fonti terze. In particolare, svolgerai attività quali:
    analizzare e progettare soluzioni software scalabili, resilienti e fault tolerant, operanti su dati provenienti da sorgenti eterogenee ed orientate all'analisi dei dati e a prodotti di intelligenza artificiale;
    realizzare e mantenere architetture, stream e pipeline ETL, per l'elaborazione dati implementando la comunicazione tra servizi differenti e garantendo l'integrità dei flussi di orchestrazione;
    collaborare con i data scientist del team per determinare insieme i dati e la relativa elaborazione e disponibilità.
    conoscenza di Python e/o Java/Spring;
    conoscenza di database relazionali (es. MySQL) e query sui dati;
    conoscenza di database documentali (es. MongoDB);
    conoscenza di GIT.
    Requisiti preferenziali:
    conoscenza dei principali progetti open source per operare sui dati: Kafka, RabbitMQ, Airflow, Flink;
    conoscenza Ansible, Docker, Terraform;
    conoscenza di Linux e Bash;
    familiarità con gli strumenti cloud (aws, google cloud) per l'Artificial Intelligence e la gestione dei dati;
    conoscenza base di Snowflake.
    Luogo di lavoro
    Orario di lavoro
    Tipo e durata del contratto e Retribuzione
    Commisurati all'esperienza pregressa
    Team di lavoro in continua espansione
    Ambiente stimolante e meritocratico
    Sviluppo tecnologico allo stato dell'arte
    Opportunità di apprendimento
    Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

    #J-18808-Ljbffr