Stellenanzeigen veröffentlichen
Ohne Provisionen einstellen
853 Ansichten
3 Bewerbungen 0 Antworten
Questrade wurde 1999 eröffnet und ist noch immer einer der am schnellsten wachsenden Online-Broker in Kanada. Es bietet ein ausgewogenes Angebot an Plattformen, eine Reihe von Handelsmärkten und Dienstleistungen, darunter mehrere Kontotypen.
Das erste Produkt war eine Plattform, die den Menschen den Handel ermöglichte, dann fügte das Unternehmen einige neue Geschäftsbereiche hinzu und das Unternehmen ist auf dem Weg zur vollständigen digitalen Banklösung.
Der Hauptsitz befindet sich in Toronto.
Derzeit suchen wir einen Senior Data Engineer (GCP) auf Vollzeit-Remote-Basis.
Starke Must-Have-Fähigkeiten:
● Mindestens 5 oder mehr Jahre Berufserfahrung im Bereich Data Engineering;
● Sehr gute GCP-Data-Engineering-Erfahrung in der Arbeit mit BigQuery, Dataflow, Cloud Data Fusion, Dataprep, Data Catalog, Cloud Composer und
CloudSQL-Funktionen;
● Erfahrung in der Architektur, Entwicklung von Software oder Big-Data-Lösungen im Internetmaßstab für die Produktion in virtualisierten Umgebungen;
● Erfahrung in der Arbeit mit/an Data Warehouses, einschließlich technischer Data Warehouse-Architekturen, Infrastrukturkomponenten, ETL/ELT und
Berichts-/Analysetools, Umgebungen und Datenstrukturen;
● Entwerfen, dokumentieren und entwickeln Sie komplexe MS Power Platform-Lösungen (PowerBI, Power Apps usw.);
● Arbeiten Sie mit UX/UI-Designern zusammen, um Wireframes und Mock-ups zu erstellen und in einem agilen Entwicklungsprozess Power BI Embedded-Berichte zu erstellen.
● Arbeiten Sie eng mit unseren Anwendungslösungsarchitekten, Datenwissenschaftlern und Datentechnikteams zusammen, um BI-Lösungen zu entwickeln und neue Datenintegrationen und/oder Modellierungsbemühungen zu verbessern und/oder zu definieren. Überwachen, beheben und beheben Sie Probleme für die bereitgestellten Berichtslösungen.
● Fähigkeit, effektiv zu arbeiten, zu kommunizieren und Stakeholder in externen Ingenieurteams, Produktentwicklungsteams, Geschäftsinteressenten und externen Partnern zu beeinflussen;
● Erfahrung in der gleichzeitigen Arbeit an mehreren Projekten, bei der Behebung technischer Probleme und in der Zusammenarbeit mit funktionsübergreifenden Stakeholdern;
● Erstellung und Pflege optimaler Datenarchitektur-Pipelines;
● Gute Kenntnisse in der SQL-Sprache;
● Gute Kenntnisse in Message-Broker-Systemen (z. B. Kafka, PubSub);
● Gute Kenntnisse der Python-Sprache;
● Entwickeln und pflegen Sie Code und Dokumentation für ETL und andere Daten
Integrationsprojekte und -verfahren;
● Arbeiten Sie mit dem Team zusammen, um zu entscheiden, welche Tools und Strategien verwendet werden sollen
innerhalb spezifischer Datenintegrationsszenarien;
● Nachweisbare Erfolge im Umgang mit Unklarheiten, der Priorisierung von Bedürfnissen,
und Ergebnisse in einem dynamischen Umfeld zu liefern.
Gut, Fähigkeiten zu haben:
● SSIS, SSRS;
● Kenntnisse in NoSQL DB.
Schön, Fähigkeiten zu haben:
● Kenntnisse der Finanzbranche (Banken/Versicherungen/Hypotheken);
● Erfahrung beim Erstellen von Anwendungen mit SparkML und TensorFlow;
● GCP Data Engineering-Zertifizierung bevorzugt.
Lassen Sie uns weitere Details besprechen 😊