主講老師: 盧森煌(培訓費:2-2.5萬元/天)
工作背景:
曾任職阿里巴巴畢業(yè)于北京郵電大學0-1策劃多個傳播量過億的互聯(lián)網(wǎng)營銷案例孵化過30個賬號,單條百萬播放視頻過100條操盤互聯(lián)網(wǎng)渠道銷售金額累計10億前啊喔科技CEO,18個月完成3...
主講課程:
《制造業(yè)數(shù)智化轉(zhuǎn)型的機遇與挑戰(zhàn)》《ChatGPT原理與移動通信的結(jié)合》《基于人工智能進行人物形象設(shè)計》《AI在直播和短視頻中的應(yīng)用》

Python應(yīng)用與大數(shù)據(jù)分析課程大綱詳細內(nèi)容
課程分類: 大數(shù)據(jù)
課程目標:
課程對象:
課程時間:
時間 | 培訓項目 | 具體內(nèi)容 |
| ||
第 一 天 上 午 | Python Package 與數(shù)據(jù)分析 | Numpy/Scipy/Pandas/Matplotlib/Seaborn庫 |
| ||
Numpy基礎(chǔ)屬性與數(shù)組創(chuàng)建 |
| ||||
Numpy索引 |
| ||||
Numpy數(shù)學運算與常用分布 |
| ||||
Pandas數(shù)據(jù)處理與分析 |
| ||||
Pandas文件讀寫和個性化控制 |
| ||||
Pandas的concat與merge |
| ||||
Matplotlib 基本圖結(jié)構(gòu)介紹 |
| ||||
基于Matplotlib繪制散點圖、柱狀圖、等高線、3D圖等 |
| ||||
多圖合并與圖片文件存取 |
| ||||
Seaborn/PyEcharts等包的使用 |
| ||||
scikit-learn的介紹和典型使用 |
| ||||
TensorFlow經(jīng)典應(yīng)用 |
| ||||
多元高斯分布 |
| ||||
典型圖像處理 |
| ||||
多種數(shù)學曲線 |
| ||||
多項式擬合 |
| ||||
代碼 和案例實踐 | 快速傅里葉變換FFT與信號處理 |
| |||
Soble/Prewitt/Laplacian算子與卷積網(wǎng)絡(luò) |
| ||||
卷積與(指數(shù))移動平均線 |
| ||||
股票數(shù)據(jù)分析 |
| ||||
缺失數(shù)據(jù)的處理和預測 |
| ||||
環(huán)境數(shù)據(jù)異常檢測和分析 |
| ||||
快速傅里葉變換FFT |
| ||||
圖像處理與奇異值分解SVD |
| ||||
第 一 天 下 午 : 實 踐 | 使用numpy、 PIL等包 實現(xiàn)圖像的卷積 | 使用Python常用包實現(xiàn)給定圖像的卷積輸出 |
| ||
比較不同卷積核的效果 |
| ||||
將OpenCV和PIL讀取圖像的結(jié)果比較異同 |
| ||||
使用 TensorFlow/Keras 實現(xiàn)貓狗分類 | 了解TensorFlow的基本流程 |
| |||
學會使用Keras搭建卷積神經(jīng)網(wǎng)絡(luò) |
| ||||
比較padding、stride、卷積核大小對輸出圖像的影響 |
| ||||
掌握圖像分類的方法和步驟 |
| ||||
第 二 天 上 午 | 機器學習基礎(chǔ) 與多元回歸 | 線性回歸 | |||
Logistic/Softmax回歸 | |||||
廣義線性回歸 | |||||
L1/L2正則化 | |||||
Ridge與LASSO | |||||
Elastic Net | |||||
梯度下降算法:BGD與SGD | |||||
特征選擇與過擬合 | |||||
Softmax回歸的概念源頭 | |||||
最大熵模型 | |||||
K-L散度 | |||||
代碼 和案例實踐 | 鳶尾花數(shù)據(jù)集的分類 | ||||
股票數(shù)據(jù)的特征提取和應(yīng)用 | |||||
泰坦尼克號乘客缺失數(shù)據(jù)處理和存活率預測 | |||||
環(huán)境檢測數(shù)據(jù)異常分析和預測 | |||||
模糊數(shù)據(jù)查詢和數(shù)據(jù)校正方法 | |||||
PCA與鳶尾花數(shù)據(jù)分類 | |||||
二手車數(shù)據(jù)特征選擇與算法模型比較 | |||||
廣告投入與銷售額回歸分析 | |||||
第 二 天 下 午 : 實 踐 | 實現(xiàn)葡萄酒 三分類數(shù)據(jù) 的邏輯回歸建模 與應(yīng)用 | 使用Pandas讀寫文件csv等表格文件 | |||
實現(xiàn)scikit-learn的建??傔^程 | |||||
掌握scikit-learn中的常用函數(shù),并學會使用官網(wǎng)查閱幫助文檔 | |||||
混淆函數(shù)的使用和正確率、準確率、召回率、F1-Measure等的度量 | |||||
基于人口特征 數(shù)據(jù)預測年收入 | 缺失值、異常值處理 | ||||
One-Hot編碼的應(yīng)用場景分析 | |||||
字符串特征的處理 | |||||
樣本不均衡問題的初步理解和使用 | |||||
第 三 天 上 午 | 決策樹、 隨機森林、 SVM | 熵、聯(lián)合熵、條件熵、KL散度、互信息 |
| ||
最大似然估計與最大熵模型 |
| ||||
ID3、C4.5、CART詳解 |
| ||||
決策樹的正則化 |
| ||||
預剪枝和后剪枝 |
| ||||
Bagging |
| ||||
不平衡數(shù)據(jù)集的處理 |
| ||||
利用隨機森林做特征選擇 |
| ||||
使用隨機森林計算樣本相似度 |
| ||||
線性可分支持向量機 |
| ||||
軟間隔 |
| ||||
損失函數(shù)的理解 |
| ||||
核函數(shù)的原理和選擇 |
| ||||
SMO算法 |
| ||||
支持向量回歸SVR |
| ||||
多分類SVM |
| ||||
代碼 和案例實踐 | 隨機森林與特征選擇 |
| |||
決策樹應(yīng)用于回歸 |
| ||||
多標記的決策樹回歸 |
| ||||
決策樹和隨機森林的可視化 |
| ||||
葡萄酒數(shù)據(jù)集的決策樹/隨機森林分類 |
| ||||
泰坦尼克乘客存活率估計 |
| ||||
葡萄酒數(shù)據(jù)分類 |
| ||||
數(shù)字圖像的手寫體識別 |
| ||||
MNIST手寫體識別 |
| ||||
SVR用于時間序列曲線預測 |
| ||||
SVM、Logistic回歸、隨機森林三者的橫向比較 |
| ||||
第 三 天 下 午 : 實 踐 | 路透社新聞 語聊的分類 | 文本數(shù)據(jù)的特征抽取方法 |
| ||
中英文分類模型的區(qū)別和聯(lián)系 |
| ||||
分詞系統(tǒng)的使用和優(yōu)化 |
| ||||
機器學習分類模型的綜合運用 |
| ||||
圖像 像素聚類 與調(diào)色板的應(yīng)用 | 矢量量化算法的實現(xiàn) |
| |||
圖像通道的綜合運用 |
| ||||
自動選擇聚類個數(shù)與elbow-method |
| ||||
計算聚類指標并比較相互關(guān)系 |
|