متن کامل آگهی:
عنوان شغل: مهندس داده / MLOPS
مکان: از راه دور
پرداخت: در USD
بخش: مهندسی / علوم داده
---
مشاهده اجمالی شرکت:
ما یک سازمان آینده نگر در استرالیا هستیم تا داده ها و فناوری را برای هدایت نوآوری انجام دهیم. ما به دنبال یک مهندس داده ماهر برای طراحی ، ساخت و حفظ زیرساخت داده های مقیاس پذیر ، امکان تجزیه و تحلیل پیشرفته و راه حل های یادگیری ماشین هستیم.
---
مسئولیت های کلیدی:
1. توسعه خط لوله داده: طراحی و اجرای خطوط لوله ETL/ELT قوی برای پردازش داده های ساختاری/بدون ساختار.
2. برنامه نویسی پایتون: ابزارهای مبتنی بر پایتون ، اسکریپت ها و API ها را برای خودکار سازی گردش کار و ادغام سیستم ها توسعه دهید.
3. ادغام یادگیری ماشین: برای استقرار مدل های ML در محیط های تولید با دانشمندان داده همکاری کنید.
4. کانتینریزاسیون و ارکستراسیون: از Docker و Kubernetes برای کانتینر کردن برنامه ها و مدیریت استقرار مقیاس پذیر استفاده کنید.
5. زیرساخت های ابری: ذخیره سازی داده ها ، پردازش و استقرار داده ها را بر روی سیستم عامل هایی مانند AWS ، GCP یا Azure بهینه کنید.
6. حاکمیت داده ها: از کیفیت داده ها ، امنیت و رعایت استانداردهای صنعت اطمینان حاصل کنید.
7. همکاری: برای ترجمه نیازهای تجاری به راه حل های فنی ، با تیم های عملکردی متقابل کار کنید.
8. بهینه سازی عملکرد: پایگاه داده ها ، نمایش داده شد و خطوط لوله برای کارآیی و مقیاس پذیری.
9. نظارت و نگهداری: اجرای ورود به سیستم ، هشدار و عیب یابی برای سیستم های داده.
10. مستندات: مستندات فنی روشن را برای معماری ها و فرآیندها حفظ کنید.
---
مهارت ها و مدارک لازم:
-3+ سال تجربه مهندسی داده.
- مهارت پایتون: تخصص در کتابخانه های پایتون (پاندا ، نومپی ، جریان هوا ، FastAPI) و اصول OOP. تجربه در آزمون های نوشتن در پایتون ** باید ** باشد.
- چارچوب های ML: آشنایی با Tensorflow ، Pytorch یا Scikit-Learn.
- کانتینریزاسیون: تجربه دستی با داکر و Kubernetes.
- ETL/انبارداری داده: دانش ابزارهایی مانند Apache Spark ، Kafka یا Snowflake.
- سیستم عامل های ابری: تجربه با AWS (S3 ، redshift ، Lambda) یا Azure.
- MLOPS: تجربه با ابزارهای MLOPS (MLFlow ، Kubeflow).
- پایگاه داده ها: SQL (PostgreSQL ، MySQL) و NOSQL (MongoDB ، Cassandra).
- DevOps: خطوط لوله CI/CD (جنکینز ، Gitlab CI) ، IAC (Terraform) و کنترل نسخه (GIT).
- حل مسئله: توانایی اشکال زدایی سیستم های پیچیده و ارائه راه حل های مقیاس پذیر.
- ارتباطات: کار تیمی قوی و مهارتهای مدیریت ذینفعان.
---
** صلاحیت های ارجح/خوب برای همه: **
-لیسانس/کارشناسی ارشد در علوم کامپیوتر ، علوم داده یا تجربه کار مربوطه.
- گواهینامه های AWS/GCP ، Kubernetes یا یادگیری ماشین.
- دانش سیستم های توزیع شده و پردازش داده های زمان واقعی.
- مشارکت در پروژه های منبع باز یا نمونه کارها عمومی GitHub.
---
آنچه ما ارائه می دهیم:
-حقوق و مزایای رقابتی.
- فرصت های توسعه حرفه ای.
- فرهنگ مشارکتی ، نوآورانه.
- پروژه های تأثیرگذار با فناوری برش.
---
نحوه استفاده:
رزومه خود ، مشخصات GitHub و یک نامه جلد را که جزئیات تجربه شما با Python ، ML و Kubernetes را ارسال می کند ، ارسال کنید.
---
ما یک کارفرمای مساوی هستیم.
Job Title: Data Engineer / MLOps
Location: Remote
Payment: in USD
Department: Engineering/Data Science
---
Company Overview:
We are a forward-thinking organization in Australia leveraging data and technology to drive innovation. We seek a skilled Data Engineer to design, build, and maintain scalable data infrastructure, enabling advanced analytics and machine learning solutions.
---
Key Responsibilities:
1. Data Pipeline Development: Design and implement robust ETL/ELT pipelines for processing structured/unstructured data.
2. Python Programming: Develop Python-based tools, scripts, and APIs to automate workflows and integrate systems.
3. Machine Learning Integration: Collaborate with data scientists to deploy ML models into production environments.
4. Containerization & Orchestration: Use Docker and Kubernetes to containerize applications and manage scalable deployments.
5. Cloud Infrastructure: Optimize data storage, processing, and deployment on platforms like AWS, GCP, or Azure.
6. Data Governance: Ensure data quality, security, and compliance with industry standards.
7. Collaboration: Work with cross-functional teams to translate business requirements into technical solutions.
8. Performance Optimization: Tune databases, queries, and pipelines for efficiency and scalability.
9. Monitoring & Maintenance: Implement logging, alerting, and troubleshooting for data systems.
10. Documentation: Maintain clear technical documentation for architectures and processes.
---
Required Skills & Qualifications:
- 3+ years of data engineering experience.
- Python Proficiency: Expertise in Python libraries (Pandas, NumPy, Airflow, FastAPI) and OOP principles. Experience in writing tests in Python is a **MUST-Have**.
- ML Frameworks: Familiarity with TensorFlow, PyTorch, or scikit-learn.
- Containerization: Hands-on experience with Docker and Kubernetes.
- ETL/Data Warehousing: Knowledge of tools like Apache Spark, Kafka, or Snowflake.
- Cloud Platforms: Experience with AWS (S3, Redshift, Lambda) or Azure.
- MLOps: Experience with MLOps tools (MLflow, Kubeflow).
- Databases: SQL (PostgreSQL, MySQL) and NoSQL (MongoDB, Cassandra).
- DevOps: CI/CD pipelines (Jenkins, GitLab CI), IaC (Terraform), and version control (Git).
- Problem-Solving: Ability to debug complex systems and deliver scalable solutions.
- Communication: Strong teamwork and stakeholder management skills.
---
**Preferred/Nice-to-have Qualifications:**
- Bachelor’s/Master’s in Computer Science, Data Science, or relevant work experience.
- Certifications in AWS/GCP, Kubernetes, or machine learning.
- Knowledge of distributed systems and real-time data processing.
- Contributions to open-source projects or public GitHub portfolio.
---
What We Offer:
- Competitive salary and benefits.
- Professional development opportunities.
- Collaborative, innovative culture.
- Impactful projects with cutting-edge tech.
---
How to Apply:
Submit your resume, GitHub profile, and a cover letter detailing your experience with Python, ML, and Kubernetes.
---
We are an equal-opportunity employer.