大數(shù)據(jù)開(kāi)發(fā)+福利待遇優(yōu)厚+雙休
1-1.5萬(wàn)元/月崗位職責(zé):
1、依托 Databricks 平臺(tái),規(guī)劃并實(shí)現(xiàn)可靠、高效的數(shù)據(jù) ETL 流程,集成多業(yè)務(wù)系統(tǒng)數(shù)據(jù),支撐數(shù)據(jù)分析與報(bào)表構(gòu)建。
2、運(yùn)用 PySpark / SQL 實(shí)現(xiàn)海量數(shù)據(jù)的清洗、轉(zhuǎn)換、聚合與加工,保障數(shù)據(jù)質(zhì)量與時(shí)效表現(xiàn)。
3、承擔(dān)數(shù)據(jù)倉(cāng)庫(kù)建模工作,設(shè)計(jì)分層數(shù)據(jù)結(jié)構(gòu),并持續(xù)優(yōu)化查詢(xún)效率與計(jì)算性能。
4、結(jié)合業(yè)務(wù)實(shí)際需求,開(kāi)發(fā)并維護(hù)數(shù)據(jù)報(bào)表及數(shù)據(jù)接口,助力業(yè)務(wù)決策支持。
5、建立并執(zhí)行數(shù)據(jù)校驗(yàn)機(jī)制與監(jiān)控策略,確保數(shù)據(jù)準(zhǔn)確、完整且一致。
6、不斷優(yōu)化數(shù)據(jù)處理任務(wù),增強(qiáng)數(shù)據(jù)鏈路穩(wěn)定性與運(yùn)算效能。
7、參與數(shù)據(jù)治理方案的實(shí)施與推進(jìn),推動(dòng)數(shù)據(jù)資產(chǎn)規(guī)范化管理。
任職要求(必需):
統(tǒng)招學(xué)信網(wǎng)本科及以上學(xué)歷,計(jì)算機(jī)、數(shù)據(jù)科學(xué)、財(cái)務(wù)分析等相關(guān)專(zhuān)業(yè)優(yōu)先。
2年以上大數(shù)據(jù)開(kāi)發(fā)經(jīng)驗(yàn),具有大型互聯(lián)網(wǎng)或科技企業(yè)(大廠)工作經(jīng)驗(yàn)者優(yōu)先。
熟練掌握 SQL,可獨(dú)立完成復(fù)雜查詢(xún)編寫(xiě)與性能調(diào)優(yōu);熟悉 PySpark 進(jìn)行大規(guī)模數(shù)據(jù)處理。
具備數(shù)據(jù)倉(cāng)庫(kù)建模背景,了解維度建模等主流方法論。
有 BI 工具開(kāi)發(fā)經(jīng)歷,熟悉 Power BI 或 Tableau 等可視化工具。
具備扎實(shí)的數(shù)據(jù)邏輯思維與業(yè)務(wù)理解能力,能獨(dú)立完成數(shù)據(jù)需求分析、開(kāi)發(fā)與交付全流程。
擁有 Databricks 平臺(tái)實(shí)際項(xiàng)目經(jīng)驗(yàn)者優(yōu)先考慮。
加分項(xiàng):
了解 Delta Lake / Data Lakehouse 架構(gòu)理念及相關(guān)落地實(shí)踐。
接觸過(guò)至少一種主流云平臺(tái)(AWS/Azure/GCP)的基礎(chǔ)服務(wù)。
具備 Python 用于數(shù)據(jù)處理與分析的實(shí)際經(jīng)驗(yàn)。
知曉常用機(jī)器學(xué)習(xí)算法,有 MLflow 或其他 MLOps 工具使用經(jīng)歷。