Die Stelle wurde vom Unternehmen geschlossen
Ähnliche Jobs finden
Nächste Arbeit

Data Scientist @ Webinterpret Poland Sp. z o.o. in Webinterpret Poland Sp. z o.o.

Gepostet vor über 30 Tagen

50 Ansichten

Webinterpret Poland Sp. z o.o.

Webinterpret Poland Sp. z o.o.

0
0 Bewertungen
keine Erfahrung
Warschau
Vollzeitarbeit
Webinterpret ist ein weltweit agierendes Technologieunternehmen, das Marken und Einzelhändlern dabei hilft, über Online-Marktplätze erfolgreich neue Märkte zu erobern. Unsere grenzüberschreitende End-to-End-Lösung ist der Schlüssel dazu, dass Ihr Produkt durch unsere automatisierten Lokalisierungsdienste, mehrsprachiges SEO & SEM und Logistik erschwinglich wird und internationale Käufer erreicht. Seit 2007 haben wir weltweit über 40.000 Unternehmen unterstützt und über 300 Mio. € Umsatz generier
Webinterpret ist ein weltweit agierendes Technologieunternehmen, das Marken und Einzelhändlern dabei hilft, über Online-Marktplätze erfolgreich neue Märkte zu erobern. Unsere grenzüberschreitende End-to-End-Lösung ist der Schlüssel dazu, dass Ihr Produkt durch unsere automatisierten Lokalisierungsdienste, mehrsprachiges SEO & SEM und Logistik erschwinglich wird und internationale Käufer erreicht. Seit 2007 haben wir weltweit über 40.000 Unternehmen unterstützt und über 300 Mio. € Umsatz generiert. Arbeitsrahmen für Data Scientist: Scrum Standort: 100 % abgelegen oder Warschau (Stadtzentrum) Erfahrung: Mittlerer Senior Flexible Arbeitszeiten: Ja (mit einer Startzeit zwischen 8.00 und 10.00 Uhr MEZ/MESZ) Anforderungen: Mindestens 3 Jahre kaufmännische Tätigkeit Erfahrung Erfahrung in: Python-Datenanalyse und maschinellem Lernen Datenverarbeitung (und SQL-Datenbanken) Gutes Verständnis von Statistik und Wahrscheinlichkeit Aktuelle Kenntnisse über Modelle des maschinellen Lernens und aktuelle Trends Interesse an Datenpipelines und Softwareentwicklung Gutes Englisch in Wort und Schrift (komfortabel). mit Arbeiten in einem internationalen Umfeld) Technologie-Stack: Entwicklung Python-Entwicklung (z. B. Dataclasses, Flask, Faust, Kedro) SQL (Athena, Postgresql, Redshift), NoSQL (Redis, Mongo) Infrastruktur und Datenpipelines (Kafka, RabbitMQ, AWS, Docker , Kubernetes, MLflow, Kubeflow, Kserve) Experimente Maschinelles Lernen (sklearn, Tensorfow, pyTorch, spaCy, flair) LLMs (langchain) Analyse Python-Datenverarbeitung (z. B. Pandas, Numpy, Kedro) Statistische Analyse (Scipy, Statistikmodelle, Prophet, CausalImpact, pyMC) Wer sind wir und wen suchen wir? Als Teil von Webinterpret konzentriert sich unser Team auf die Entwicklung datengesteuerter (unter Verwendung von maschinellem Lernen, Statistiken und heuristischen Ansätzen) Lösungen zur Optimierung und Verbesserung verschiedener Dienste, die den internationalen Verkauf von Hunderten Millionen Produkten in über 15 verschiedenen Ländern unterstützen. Täglich befassen wir uns mit Aufgaben wie Produktklassifizierung, Produktlokalisierung, Versandkostenschätzung, Werbeoptimierung, Preisoptimierung und vielem mehr. Unsere täglichen Aufgaben lassen sich in eine von drei Kategorien einteilen: Entwicklung, Experimente und Analyse. Wir suchen einen Data Scientist, der in all diesen Bereichen arbeiten kann. Entwicklung Da alle unsere Systeme täglich Millionen von Produkten verarbeiten, versuchen wir, unsere Dienstleistungen skalierbar und effizient zu entwickeln. Das bedeutet, dass wir beim Aufbau unseres Systems auf hohe Codequalität, Testabdeckung, Automatisierung der Datenverarbeitung und geringe Latenz achten, um deren Leistung und erzeugte Kosten zu optimieren. Experimente Andererseits ist es wichtig, über potenzielles Wachstum nachzudenken. Deshalb arbeiten wir auch daran, den Geschäftswert bestehender Produkte zu optimieren und nach neuen Geschäftsmöglichkeiten zu suchen. Das bedeutet, dass wir oft versuchen, neue ML-basierte und (und neuerdings auch LLM-basierte) Produkte zu entwickeln und ihr Potenzial in der realen Produktionsumgebung zu validieren. Analyse Da wir Zugriff auf Terabytes an historischen E-Commerce-Daten haben, nutzen wir diese, um die Geschäftsleistung unserer Produkte zu verbessern. Das bedeutet, dass wir häufig ausführliche explorative und statistische Analysen vorbereiten, um versteckte Muster und Trends zu finden, sowie r analysierenErgebnisse und Bestätigung der Bedeutung unserer Experimente. Wir bieten „WI“ verrät nicht viel über unsere legendären Firmenfeiern; Sie sind weit davon entfernt, „lässige“ oder „langweilige“ Getränke zu sein. Sprachunterricht. Unternehmensumsatzbeteiligungsprogramm „LTIP“ – je mehr das Unternehmen wächst, desto mehr erhalten Sie davon. Mindestens 3 Jahre kommerzielle Erfahrung, Erfahrung in: Python-Datenanalyse und maschinellem Lernen, Datenverarbeitung (und SQL-Datenbanken), gutes Verständnis von Statistik und Wahrscheinlichkeit, aktuelle Kenntnisse über maschinelle Lernmodelle und aktuelle Trends, Interesse an Datenpipelines und Softwareentwicklung, gutes Englisch in Wort und Schrift (komme gerne in einem internationalen Umfeld). Webinterpret ist ein weltweit agierendes Technologieunternehmen, das Marken und Einzelhändlern dabei hilft, über Online-Marktplätze erfolgreich neue Märkte zu erobern. Unsere grenzüberschreitende End-to-End-Lösung ist der Schlüssel dazu, dass Ihr Produkt durch unsere automatisierten Lokalisierungsdienste, mehrsprachiges SEO & SEM und Logistik erschwinglich wird und internationale Käufer erreicht. Seit 2007 haben wir weltweit über 40.000 Unternehmen unterstützt und über 300 Mio. € Umsatz generiert. Arbeitsrahmen für Data Scientist: Scrum Standort: 100 % abgelegen oder Warschau (Stadtzentrum) Erfahrung: Mittlerer Senior Flexible Arbeitszeiten: Ja (mit einer Startzeit zwischen 8.00 und 10.00 Uhr MEZ/MESZ) Anforderungen: Mindestens 3 Jahre kaufmännische Tätigkeit Erfahrung Erfahrung in: Python-Datenanalyse und maschinellem Lernen Datenverarbeitung (und SQL-Datenbanken) Gutes Verständnis von Statistik und Wahrscheinlichkeit Aktuelle Kenntnisse über Modelle des maschinellen Lernens und aktuelle Trends Interesse an Datenpipelines und Softwareentwicklung Gutes Englisch in Wort und Schrift (komfortabel). mit Arbeiten in einem internationalen Umfeld) Technologie-Stack: Entwicklung Python-Entwicklung (z. B. Dataclasses, Flask, Faust, Kedro) SQL (Athena, Postgresql, Redshift), NoSQL (Redis, Mongo) Infrastruktur und Datenpipelines (Kafka, RabbitMQ, AWS, Docker , Kubernetes, MLflow, Kubeflow, Kserve) Experimente Maschinelles Lernen (sklearn, Tensorfow, pyTorch, spaCy, flair) LLMs (langchain) Analyse Python-Datenverarbeitung (z. B. Pandas, Numpy, Kedro) Statistische Analyse (Scipy, Statistikmodelle, Prophet, CausalImpact, pyMC) Wer sind wir und wen suchen wir? Als Teil von Webinterpret konzentriert sich unser Team auf die Entwicklung datengesteuerter (unter Verwendung von maschinellem Lernen, Statistiken und heuristischen Ansätzen) Lösungen zur Optimierung und Verbesserung verschiedener Dienste, die den internationalen Verkauf von Hunderten Millionen Produkten in über 15 verschiedenen Ländern unterstützen. Täglich befassen wir uns mit Aufgaben wie Produktklassifizierung, Produktlokalisierung, Versandkostenschätzung, Werbeoptimierung, Preisoptimierung und vielem mehr. Unsere täglichen Aufgaben lassen sich in eine von drei Kategorien einteilen: Entwicklung, Experimente und Analyse. Wir suchen einen Data Scientist, der in all diesen Bereichen arbeiten kann. Entwicklung Da alle unsere Systeme täglich Millionen von Produkten verarbeiten, versuchen wir, unsere Dienstleistungen skalierbar und effizient zu entwickeln. Das bedeutet, dass wir beim Aufbau unseres Systems auf eine hohe Codequalität und Testqualität achtenGeschwindigkeit, Automatisierung der Datenverarbeitung und geringe Latenz, um ihre Leistung und erzeugten Kosten zu optimieren. Experimente Andererseits ist es wichtig, über potenzielles Wachstum nachzudenken. Deshalb arbeiten wir auch daran, den Geschäftswert bestehender Produkte zu optimieren und nach neuen Geschäftsmöglichkeiten zu suchen. Das bedeutet, dass wir oft versuchen, neue ML-basierte und (und neuerdings auch LLM-basierte) Produkte zu entwickeln und ihr Potenzial in der realen Produktionsumgebung zu validieren. Analyse Da wir Zugriff auf Terabytes an historischen E-Commerce-Daten haben, nutzen wir diese, um die Geschäftsleistung unserer Produkte zu verbessern. Das bedeutet, dass wir häufig ausführliche explorative und statistische Analysen vorbereiten, um versteckte Muster und Trends zu finden, Ergebnisse zu analysieren und die Bedeutung unserer Experimente zu bestätigen. Wir bieten „WI“ verrät nicht viel über unsere legendären Firmenfeiern; Sie sind weit davon entfernt, „lässige“ oder „langweilige“ Getränke zu sein. Sprachunterricht. Unternehmensumsatzbeteiligungsprogramm „LTIP“ – je mehr das Unternehmen wächst, desto mehr erhalten Sie davon. ,[ Wir beschäftigen uns mit Aufgaben wie Produktklassifizierung, Produktlokalisierung, Versandkostenschätzung, Werbeoptimierung, Preisoptimierung und vielem mehr., Unsere täglichen Aufgaben lassen sich in eine von drei Kategorien einteilen: Entwicklung, Experimente und Analyse . Wir suchen einen Data Scientist, der in all diesen Bereichen arbeiten kann. Da alle unsere Systeme täglich Millionen von Produkten verarbeiten, versuchen wir, unsere Dienstleistungen skalierbar und effizient zu entwickeln. Das bedeutet, dass wir beim Aufbau unseres Systems auf hohe Codequalität, Testabdeckung, Automatisierung der Datenverarbeitung und geringe Latenz achten, um deren Leistung und erzeugte Kosten zu optimieren. Andererseits ist es wichtig, über potenzielles Wachstum nachzudenken, deshalb sind wir es Wir arbeiten außerdem daran, den Geschäftswert bestehender Produkte zu optimieren und nach neuen Geschäftsmöglichkeiten zu suchen. Das bedeutet, dass wir oft versuchen, neue ML-basierte und (und neuerdings auch LLM-basierte) Produkte zu entwickeln und ihr Potenzial in der realen Produktionsumgebung zu validieren. Da wir Zugriff auf Terabytes an historischen E-Commerce-Daten haben, nutzen wir diese um die Geschäftsleistung unserer Produkte zu verbessern. Das bedeutet, dass wir häufig ausführliche explorative und statistische Analysen vorbereiten, um versteckte Muster und Trends zu finden, Ergebnisse analysieren und die Bedeutung unserer Experimente bestätigen.] Anforderungen: Python, Datenanalyse, maschinelles Lernen, SQL-Tools: Jira, Confluence , Agil, Scrum. Zusätzlich: Sportabonnement, Trainingsbudget, private Gesundheitsversorgung, flache Struktur, kleine Teams, internationale Projekte, Integrationsveranstaltungen, freundliche Atmosphäre, Sprachkurse, Sharing-Programm, kostenloser Kaffee, Fahrradabstellplätze, Spielzimmer, kostenlose Snacks, kostenlose Getränke, im Haus Schulungen, modernes Büro, Startup-Atmosphäre, keine Kleiderordnung, kostenloses Frühstück.
keine Erfahrung
Warschau
Vollzeitarbeit
Wollen Sie den richtigen Job finden?
Neue Jobs in deinem Telegram
Abonnieren
wir verwenden cookies
Akzeptieren