閱讀心得 《閱讀心得》持續買進:資料科學家的投資終極解答,存錢及致富的實證方法ByWayne29/04/202581 views1 minute read 本書作者 Nick 用數據驅動的方法,打破了我們對金錢、對市場、對未來的許多錯誤期待,並提供了一套簡單卻有效的行動指南。全書分為兩大部分:儲蓄與投資。 Read More 0 0 0 0
2 Deep LearningNatural Language Processing 生成式預訓練 Transformer 模型(Generative Pre-trained Transformer, GPT)
3 Deep LearningNatural Language Processing 雙向 Transformer 編碼器表徵(Bidirectional Encoder Representations from Transformers, BERT)
Read More153 views8 minute read Deep LearningNatural Language Processing生成式預訓練 Transformer 模型(Generative Pre-trained Transformer, GPT)ByWayne23/04/2025 在過去十年的自然語言處理(Natural Language Processing, NLP)領域中,生成式預訓練 Transformer 模型(Generative Pre-trained Transformer, GPT)無疑是最具指標性的技術之一。GPT 不僅重新定義了語言建模(language modeling)的方式,更掀起了以預訓練(pre-training)為核心的通用語言模型(general-purpose language models)革命。本文將從 GPT 的基本架構談起,並深入探討 GPT-1 至 GPT-3 的設計理念與技術演進。 Read More 0 0 0 0
Read More222 views8 minute read Deep LearningNatural Language Processing雙向 Transformer 編碼器表徵(Bidirectional Encoder Representations from Transformers, BERT)ByWayne15/04/2025 雙向 Transformer 編碼器表徵(Bidirectional Encoder Representations from Transformers, BERT)是由 Google AI 在 2018 年提出的一個用於自然語言處理的預訓練技術。BERT 透過提供對語言更深入的語境理解,顯著推進了自然語言處理的發展。 Read More 0 0 0 0
Read More188 views7 minute read Deep LearningNatural Language ProcessingTransformer 模型ByWayne03/04/2025 Transformer 模型於 2017 年由谷歌大腦的一個團隊推出,是一種使用注意力機制(attention)的深度學習架構。它解決了傳統序列模型(sequential model)難以捕捉長距離依賴性和無法高效並行計算的問題。 Read More 0 0 0 0
Read More204 views8 minute read Deep LearningNatural Language Processing注意力模型(Attention Models)ByWayne19/03/2025 注意力機制(Attention mechanism)是深度學習中的一種方法,它讓模型在產生其輸出的每個部分時專注於其輸入中最相關的部分。相較於傳統 sequence models 經常難以處理較長的輸入,attention 允許模型在產生輸出序列的每個部分時動態地聚焦輸入序列的不同部分。 Read More 0 0 0 0
Read More202 views4 minute read Deep LearningMisc.Natural Language ProcessingSequence to Sequence 模型(Seq2Seq Models)ByWayne15/03/2025 Sequence to Sequence(Seq2Seq)模型一個將序列(sequence)映射至另一個序列的 neural network 模型。它徹底改變了自然語言處理(NLP)領域,使得翻譯、文本摘要和聊天機器人等任務的效果大幅提升。本篇文章將深入探討 Seq2Seq 模型的原理。 Read More 0 0 0 0
Read More242 views8 minute read Deep LearningNatural Language Processing雙向循環神經網絡(Bi-directional Recurrent Neural Networks, BRNNs)ByWayne10/03/2025 雙向循環神經網絡(Bi-directional recurrent neural networks, BRNNs)是一種 RNN,專門用於同時從前向和後向處理序列數據。與傳統 RNN 相比,BRNN 能夠保留更完整的上下文信息,使其能夠在整個序列中捕捉有用的依賴關係,從而在自然語言處理和語音識別等任務中提高預測準確性。 Read More 0 0 0 0
Read More239 views3 minute read Deep LearningNatural Language ProcessingGloVe 詞嵌入模型ByWayne05/03/2025 GloVe 是一種詞嵌入(word embedding)模型,透過 global co-occurence 統計來構建詞向量。與依賴 local context windows 的 Word2Vec 不同,GloVe 通過矩陣分解(matrix factorization)來捕捉詞語之間的整體統計關係。這種方法使 GloVe 能夠生成高質量的詞向量,有效地編碼語義和語法關係。本文將介紹 GloVe 的原理與訓練方法。 Read More 0 0 0 0
Read More217 views7 minute read Deep LearningNatural Language ProcessingWord2Vec 詞嵌入模型ByWayne03/03/2025 Word2Vec 是一種用於學習詞向量(word embeddings)的模型,透過神經網路將詞彙與其語義轉換為向量。Word2Vec 提供 CBOW 與 Skip-gram 兩種訓練方法,並透過 Negative Sampling 和 Subsampling 技術提升效率。本文章將介紹 Word2Vec 的基本原理與訓練方法。 Read More 0 0 0 0
Read More276 views8 minute read Deep LearningNatural Language Processing門控循環單元(Gated Recurrent Unit, GRU)ByWayne24/02/2025 門控循環單元(Gate recurrent unit, GRU)是一種 RNN,專門用來處理序列資料(sequential data)。與長短期記憶網路(long short-term memory)相似,它的設計目的是解決標準 RNN 長期依賴(long-term dependency)問題。 Read More 0 0 0 0
Read More288 views9 minute read Deep LearningNatural Language Processing長短期記憶(Long Short-Term Memory, LSTM)ByWayne24/02/2025 長短期記憶(Long short-term memory, LSTM)是一種 RNN,專門用來處理序列資料(sequential data)。相較於標準的 RNN,LSTM 網路能夠維持有用的長期依賴(long-term dependencies)關係,以便在當前和未來的時間步驟中做出預測。 Read More 0 0 0 0