職位描述
該職位信息待核驗,請仔細了解後再進行投遞!
【崗位職責】:
1、大數據平台架構設計與規劃
- 根據集團業務需求及技術發展趨勢,主導大數據平台的整體架構設計,確保平台具備高穩定性、可擴展性及高效性,製定長期技術演進路線。
- 設計數據存儲、計算引擎、數據集成與治理等核心模塊的技術架構,優化數據采集、清洗、存儲及分析流程。
2 、技術選型與平台搭建
- 負責大數據技術棧的選型(如Hadoop/CDH、Spark、Flink、Kafka等),搭建並維護基於CDH的分布式大數據平台,確保技術組件與業務場景高度適配。
- 主導數據倉庫建模、實時流計算框架開發,支持BI分析及數據挖掘應用。
3 、平台運維體係化構建
- 建立全鏈路監控體係,覆蓋硬件資源(CPU/存儲/網絡)、係統服務(HDFS/YARN)、數據質量(ETL任務、延遲率)等維度,製定標準化監控指標與告警規則。
- 設計自動化運維工具與流程,處理平台故障及預警事件,保障7×24小時高可用性。
4 、性能優化與監控
- 分析平台性能瓶頸,優化計算任務調度、存儲資源分配及集群負載均衡,提升數據處理效率(如Spark作業調優、Hive查詢加速)。
- 定期開展壓力測試與容量規劃,預判資源需求並動態調整集群規模。
5 、數據安全機製建設
- 製定數據安全策略,包括敏感數據加密、訪問權限控製(基於RBAC模型)、審計日誌追蹤等,防止數據泄露與非法訪問。
- 設計災備方案與數據恢複機製,確保數據完整性與業務連續性。
【任職要求】:
1 、學曆與經驗
- 本科及以上學曆,計算機、數學、統計學或相關專業,5年以上大數據架構設計經驗,3年以上大型分布式係統(PB級數據)實戰經驗。
2 、技術能力
- 精通Hadoop生態技術(HDFS/Hive/HBase/Spark/Flink),熟悉CDH平台部署與運維,具備源碼級調優能力。
- 掌握數據治理工具(如Apache Atlas)、實時計算框架(如Storm/Kafka Streams)及容器化技術(Docker/Kubernetes)。
- 熟悉數據安全標準(如GDPR),具備數據脫敏、權限管理及安全審計實施經驗。
3 、運維與問題解決
- 具備全鏈路故障排查能力,熟悉運維工具鏈(如Prometheus/Grafana/Zabbix),能快速定位並解決集群性能問題。
- 主導過大數據平台從0到1的建設,有金融、能源等高安全要求行業經驗優先。
4 、軟技能
- 優秀的跨部門溝通能力,能主導技術方案評審並推動落地,具備團隊管理與技術培訓經驗。
- 對技術前沿敏感,持續關注AI/機器學習與大數據融合趨勢(如TensorFlow在數據分析中的應用)。
【豐厚福利,團隊全方位關懷】
周末雙休、住房/通訊/交通/餐費補貼、五險一金、補充商業險、年度體檢、帶薪病假、帶薪年假、節假日禮品、團建基金等。
工作地點
地址:廣州番禺區廣州-番禺區海大科學園2號樓6樓
📍
點擊查看地圖
詳細位置,可以參考上方地址信息
求職提示:用人單位發布虛假招聘信息,或以任何名義向求職者收取財物(如體檢費、置裝費、押金、服裝費、培訓費、身份證、畢業證等),均涉嫌違法,請求職者務必提高警惕。
職位發布者
滿先生HR
廣東海大集團股份有限公司
-
快速消費品
-
1000人以上
-
股份製企業
-
番禺區番禺大道北555號天安節能科技園創新大廈213

廣州
應屆畢業生
本科
最近更新
5686人關注
注:聯係我時,請說是在福建人才網上看到的。
