/images/website/avatar.png
發佈日期 / 更新日期

主成分分析(PCA)

主成分分析(Principal Component Analysis, PCA)是常見的降維(dimension reduction)方法,是將原先線性相依(linearly dependent)的資料集經由正交轉換(orthogonal transformation)後變成若干個線性獨立(linearly independent)的新變數表示的資料,使資料集經投影到新變數上損失的資訊量最小,並依新變數的變異數(variance)大小依次稱為第一主成分、第二主成分等。 PCA 常用於將高維度的資料映射到低維度空間,同時盡可能在降維過程中保留原始資料的重要特徵與訊息。

認識混淆矩陣

在機器學習中,我們能建立各式各樣的模型,從簡單的線性迴歸到複雜的神經網路模型等。這些模型可以應用於不同的領域,例如影像辨識、語言生成、金融預測等。不同的模型各有其優勢與適用場景,例如線性迴歸適合處理資料集與目標變數的擬合與分析,而深度學習則能處理複雜的非線性的資料集。然而,如何判斷一個模型的好壞呢?單純依賴準確率(Accuracy)可能不足以評估模型的表現,特別是在類別分佈不均的情境下。因此,我們使用 **混淆矩陣(Confusion Matrix)** 來分析分類模型的效能。

資料集探索與分析

封面圖片為 ChatGPT 生成的關於資料分析的圖片,提示詞為 “A modern data analysis concept illustration featuring a futuristic workspace. The image includes multiple data charts, graphs, and dashboards displayed on transparent holographic screens. A diverse team of analysts and data scientists collaborate, analyzing trends and insights on large monitors. The scene has a sleek, high-tech atmosphere with glowing blue and purple hues, reflecting a professional and cutting-edge environment.” 。

前言

本次使用的資料集為 Swiss bank notes ,是銀行間用於判斷舊瑞士法郎(Franc)的資料集。本文自 https://github.com/QuantLet/MVA/tree/master/QID-1530-MVAscabank56 中下載 bank2.dat 資料集,並使用 R 語言進行分析。

在 Hugo 中將文章上鎖

前言

有時候某篇文章有瑕疵或是涉及的資訊不想讓所有人都看到,但我們又希望文章能在網頁上供特定人士觀看。這時候,文章密碼就派上用場啦!

隨筆 #3

今天接到訊息,要幫教育實習生領取教師證書。讓我們熱烈歡迎~~新鮮的肝~~富教育理念的教師新鮮人加入教育界大家庭。

隨筆 #2

今天在搭火車時,偶然瞧見莒光號列車正在進行連接。雖說這並不稀奇,但還是想將這一刻記錄下來。