Deep LearningNatural Language Processing 注意力模型(Attention Models)ByWayne19/03/202565 views8 minute read 注意力機制(Attention mechanism)是深度學習中的一種方法,它讓模型在產生其輸出的每個部分時專注於其輸入中最相關的部分。相較於傳統 sequence models 經常難以處理較長的輸入,attention 允許模型在產生輸出序列的每個部分時動態地聚焦輸入序列的不同部分。 Read More 0 0 0 0
Read More90 views4 minute read Deep LearningMisc.Natural Language ProcessingSequence to Sequence 模型(Seq2Seq Models)ByWayne15/03/2025 Sequence to Sequence(Seq2Seq)模型一個將序列(sequence)映射至另一個序列的 neural network 模型。它徹底改變了自然語言處理(NLP)領域,使得翻譯、文本摘要和聊天機器人等任務的效果大幅提升。本篇文章將深入探討 Seq2Seq 模型的原理。 Read More 0 0 0 0
Read More115 views8 minute read Deep LearningNatural Language Processing雙向循環神經網絡(Bi-directional Recurrent Neural Networks, BRNNs)ByWayne10/03/2025 雙向循環神經網絡(Bi-directional recurrent neural networks, BRNNs)是一種 RNN,專門用於同時從前向和後向處理序列數據。與傳統 RNN 相比,BRNN 能夠保留更完整的上下文信息,使其能夠在整個序列中捕捉有用的依賴關係,從而在自然語言處理和語音識別等任務中提高預測準確性。 Read More 0 0 0 0
Read More130 views3 minute read Deep LearningNatural Language ProcessingGloVe 詞嵌入模型ByWayne05/03/2025 GloVe 是一種詞嵌入(word embedding)模型,透過 global co-occurence 統計來構建詞向量。與依賴 local context windows 的 Word2Vec 不同,GloVe 通過矩陣分解(matrix factorization)來捕捉詞語之間的整體統計關係。這種方法使 GloVe 能夠生成高質量的詞向量,有效地編碼語義和語法關係。本文將介紹 GloVe 的原理與訓練方法。 Read More 0 0 0 0
Read More115 views7 minute read Deep LearningNatural Language ProcessingWord2Vec 詞嵌入模型ByWayne03/03/2025 Word2Vec 是一種用於學習詞向量(word embeddings)的模型,透過神經網路將詞彙與其語義轉換為向量。Word2Vec 提供 CBOW 與 Skip-gram 兩種訓練方法,並透過 Negative Sampling 和 Subsampling 技術提升效率。本文章將介紹 Word2Vec 的基本原理與訓練方法。 Read More 0 0 0 0
Read More161 views8 minute read Deep LearningNatural Language Processing門控循環單元(Gated Recurrent Unit, GRU)ByWayne24/02/2025 門控循環單元(Gate recurrent unit, GRU)是一種 RNN,專門用來處理序列資料(sequential data)。與長短期記憶網路(long short-term memory)相似,它的設計目的是解決標準 RNN 長期依賴(long-term dependency)問題。 Read More 0 0 0 0
Read More179 views9 minute read Deep LearningNatural Language Processing長短期記憶(Long Short-Term Memory, LSTM)ByWayne24/02/2025 長短期記憶(Long short-term memory, LSTM)是一種 RNN,專門用來處理序列資料(sequential data)。相較於標準的 RNN,LSTM 網路能夠維持有用的長期依賴(long-term dependencies)關係,以便在當前和未來的時間步驟中做出預測。 Read More 0 0 0 0
Read More197 views9 minute read Deep LearningNatural Language Processing循環神經網路(Recurrent Neural Networks, RNN)ByWayne15/02/2025 循環神經網路(Recurrent Neural Networks, RNN)是一個專門處理序列資料(sequential data)的神經網路架構。RNN 利用循環連結(recurrent connections)來保留先前的輸出資訊,使網路在處理當前步驟時,能同時考慮過去的狀態。本文章將介紹 RNN 的基本原理。 Read More 0 0 0 0
Read More223 views4 minute read Deep LearningVision Models卷積神經網路(Convolutional Neural Networks, CNN)ByWayne23/01/2025 卷積神經網路(convolutional neural networks, CNN)是一個基於神經網路(neural networks)的電腦視覺和影像處理方法。在本文章中,我們將介紹 CNN 裡各種層(layers)的原理。 Read More 0 0 0 0
Read More296 views6 minute read Deep LearningNeural Networks多元分類神經網路(Multiple Classification Neural Network)ByWayne12/01/2025 多元分類神經網路(multiple classification neural network)可以分類多於一種類別。相較於二元分類(binary classification),在實務上是比較常被使用的。本文章將詳細介紹 multiple classification neural network 的理論。 Read More 0 0 0 0
Read More317 views12 minute read Deep LearningNeural Networks神經網路(Neural Networks)與二元分類(Binary Classification)ByWayne12/01/2025 由於深度學習(deep learning)在近年來蓬勃發展,使得神經網路(Neural Network)熱門起來。它已經被用於解決各式各樣的問題。本文章將以二元分類神經網路(binary classification neural network)來詳細介紹 neural network。 Read More 0 0 0 0