
大數據開發培訓班
課程介紹
一、課程名稱:大數據開發
班型:全日制脫產班,網絡班
二、市場介紹
大數據學習正當時
大數據工程師又是得天獨厚,遠超普通工程師
三、課程介紹:
專業打造大數據開發生態鏈
理論、實操內外雙修,只做精品課程
年薪“10萬+”是我們的底線,年薪“30萬+”是我們的水平
階段JavaSE+MySql+Linux
薪資水平:薪資普遍在5000元
學習安排:2周2次作業1次階段考核
學習內容:Java語言入門uf0e0OOP編程uf0e0Java常用Api、集合uf0e0IO/NIOuf0e0Java實用技術uf0e0Mysql數據庫uf0e0階段項目實戰uf0e0Linux基礎uf0e0shell編程
學習目標:學習java語言,掌握java程序編寫、面向對象程序開發,掌握MySql體系結構及核心編程技術,打好Linux基礎,為后續學習提供良好的語言基礎。
第二階段Hadoop與生態系統
薪資水平:薪資普遍在7000元
學習安排:2周2次作業1次階段考核
學習內容:Hadoopuf0e0MapReduceuf0e0Avrouf0e0Hiveuf0e0HBaseuf0e0Zookeeperuf0e0Flumeuf0e0Kafkauf0e0Sqoopuf0e0Pig
學習目標:掌握大數據學習基石Hadoop、數據串行化系統與技術、數據的統計分析、分布式集群、流行的隊列、數據遷移、大數據平臺分析等
第三階段Storm與Spark及其生態圈
薪資水平:薪資普遍在9000元
學習安排:2周2次作業1次階段考核
學習內容:Stormuf0e0Scalauf0e0Sparkuf0e0Spark SQLuf0e0Spark Streaminguf0e0Spark機器學習
學習目標:讓大家擁有完整項目開發思路和架構設計,掌握從數據采集到實時計算到數據存儲再到前臺展示,所有工作一個人搞定!并可以從架構的層次站在架構師的角度去完成一個項目。
第四階段Mahout機器學習、R語言、Python
薪資水平:薪資普遍在12000元
學習安排:2周2次作業1次階段考核
學習內容:Mahout機器學習uf0e0R語言uf0e0Python
學習目標:機器學習領域經典算法的實現,熟練使用R語法和統計思維,可以基于具體問題建立數學模型,掌握python技術與數據分析,將數據結果以可視化的直觀方式展示給目標用戶。
第五階段項目實戰、技術綜合運用
薪資水平:薪資普遍在15000元
學習安排:2周2次作業1次階段考核
學習內容:某手機公司bug系統uf0e0傳統廣告怎么用大數據uf0e0類互聯網電商網站uf0e0網站日志收集清洗系統uf0e0網站流量統計分析系統
學習目標:具備企業級大型完整項目開發能力,綜合運用大數據分析知識,完成數據分析、收集、展示的完整流程。
四、項目展示
真實企業級實戰項目教學
企業應用最廣泛的項目實戰保你輕松勝任工作
項目一:類電商網站
技術點:spring mvc架構的前端業態展現,maven實現項目依賴管理業務流程的編程實現處理,nginx服務器的負載均衡實現與動靜分離技術中同tomcat服務器的服務器集群整合,大數據方面日志數據的產生,數據定時統計、數據在線實時處理等
特色:完成完整的電商前后端數據處理。
項目二:某手機公司bug系統
技術點:編寫自己一套bug系統,供測試人員使用,通過編寫SQL查詢一段時間內ERROR級別記錄的前10行,統計每分鐘的日志記錄數,并將統計結果存入mysql數據庫中,將該數據對應到bug系統中,提供給開發人員解決bug。
特色:自己編寫公司bug系統
項目三:傳特色:統廣告怎么用大數據(新增)
技術點:
(1)攝像頭的采集
(2)圖像識別
(3)產生log
(4)linux的定時器
(5)大數據技術結合
(6)php技術展示
(7)h5跨平臺展示
特色:讓同學從收集,分析,展示一個完整的流程。
項目四:網站日志收集清洗
技術點:
(1)hive數據分析通過日志文件獲得的訪問數據,點擊數據,結合線上數據從庫根據業務邏輯通過shell腳本,利用hive清洗后入mysql數據庫,前端通過報表配置展示給各個業務部門及CTO、CEO。
(2)各個業務部門例如,市場,運營等臨時數據查詢支持。
(3)運用hive進行數據倉庫搭建。為減輕集群壓力,及增加研發人員查詢數據效率,特別根據獲取的數據進行整理,并且搭建寬表。方便維護及提高數據一致性,準確性。
(4)為提高用戶粘性,挖掘潛在客戶。根據用戶前一天,前一周的用戶行為,設計出,并提供數據,適合用戶行為興趣的推薦彈窗口等.
特色:將采集到的網站行為日志通過mr清洗后入hive數據庫。
項目五:網站流量統計分析系統
技術點:
(1)利用Flume技術完成網站日志的收集和聚集,并把數據存儲到HDFS和Kafka集群;
(2)利用hive技術對HDFS收集的日志進行PV,UV,VV和在線時長等離線分析,并利用Sqoop技術把hive分析的結果導入到Mysql中;
(3)利用storm和spark streaming技術對kafka收集的日志進行實時在線分析,將分析中間結果實時存入Hbase,并將最后結果導入Mysql。
特色:大數據分析目標網站頁面瀏覽量或點擊量,獨立訪客數,訪問次數和平均在線時長等。