Artificial IntelligenceVision Models OpenAI’s CLIP 模型ByWayne03/06/20257 views CLIP(Contrastive Language-Image Pre-training)是由 OpenAI 於 2021 年提出的模型。它透過融合視覺與語言共同編碼達成強大的泛化能力,並具有廣泛的潛在用途。本文章將介紹 CLIP 的理論與實作。 Read More 0 0 0 0
Read More7 views4 minute read Artificial IntelligenceVision ModelsOpenAI’s CLIP 模型ByWayne03/06/2025 CLIP(Contrastive Language-Image Pre-training)是由 OpenAI 於 2021 年提出的模型。它透過融合視覺與語言共同編碼達成強大的泛化能力,並具有廣泛的潛在用途。本文章將介紹 CLIP 的理論與實作。 Read More 0 0 0 0
Read More175 views8 minute read Artificial IntelligenceNatural Language Processing生成式預訓練 Transformer 模型(Generative Pre-trained Transformer, GPT)ByWayne23/04/2025 在過去十年的自然語言處理(Natural Language Processing, NLP)領域中,生成式預訓練 Transformer 模型(Generative Pre-trained Transformer, GPT)無疑是最具指標性的技術之一。GPT 不僅重新定義了語言建模(language modeling)的方式,更掀起了以預訓練(pre-training)為核心的通用語言模型(general-purpose language models)革命。本文將從 GPT 的基本架構談起,並深入探討 GPT-1 至 GPT-3 的設計理念與技術演進。 Read More 0 0 0 0
Read More251 views8 minute read Artificial IntelligenceNatural Language Processing雙向 Transformer 編碼器表徵(Bidirectional Encoder Representations from Transformers, BERT)ByWayne15/04/2025 雙向 Transformer 編碼器表徵(Bidirectional Encoder Representations from Transformers, BERT)是由 Google AI 在 2018 年提出的一個用於自然語言處理的預訓練技術。BERT 透過提供對語言更深入的語境理解,顯著推進了自然語言處理的發展。 Read More 0 0 0 0
Read More214 views7 minute read Artificial IntelligenceNatural Language ProcessingTransformer 模型ByWayne03/04/2025 Transformer 模型於 2017 年由谷歌大腦的一個團隊推出,是一種使用注意力機制(attention)的深度學習架構。它解決了傳統序列模型(sequential model)難以捕捉長距離依賴性和無法高效並行計算的問題。 Read More 0 0 0 0
Read More234 views8 minute read Artificial IntelligenceNatural Language Processing注意力模型(Attention Models)ByWayne19/03/2025 注意力機制(Attention mechanism)是深度學習中的一種方法,它讓模型在產生其輸出的每個部分時專注於其輸入中最相關的部分。相較於傳統 sequence models 經常難以處理較長的輸入,attention 允許模型在產生輸出序列的每個部分時動態地聚焦輸入序列的不同部分。 Read More 0 0 0 0
Read More230 views4 minute read Artificial IntelligenceNatural Language ProcessingSequence to Sequence 模型(Seq2Seq Models)ByWayne15/03/2025 Sequence to Sequence(Seq2Seq)模型一個將序列(sequence)映射至另一個序列的 neural network 模型。它徹底改變了自然語言處理(NLP)領域,使得翻譯、文本摘要和聊天機器人等任務的效果大幅提升。本篇文章將深入探討 Seq2Seq 模型的原理。 Read More 0 0 0 0
Read More261 views8 minute read Artificial IntelligenceNatural Language Processing雙向循環神經網絡(Bi-directional Recurrent Neural Networks, BRNNs)ByWayne10/03/2025 雙向循環神經網絡(Bi-directional recurrent neural networks, BRNNs)是一種 RNN,專門用於同時從前向和後向處理序列數據。與傳統 RNN 相比,BRNN 能夠保留更完整的上下文信息,使其能夠在整個序列中捕捉有用的依賴關係,從而在自然語言處理和語音識別等任務中提高預測準確性。 Read More 0 0 0 0
Read More263 views3 minute read Artificial IntelligenceNatural Language ProcessingGloVe 詞嵌入模型ByWayne05/03/2025 GloVe 是一種詞嵌入(word embedding)模型,透過 global co-occurence 統計來構建詞向量。與依賴 local context windows 的 Word2Vec 不同,GloVe 通過矩陣分解(matrix factorization)來捕捉詞語之間的整體統計關係。這種方法使 GloVe 能夠生成高質量的詞向量,有效地編碼語義和語法關係。本文將介紹 GloVe 的原理與訓練方法。 Read More 0 0 0 0
Read More240 views7 minute read Artificial IntelligenceNatural Language ProcessingWord2Vec 詞嵌入模型ByWayne03/03/2025 Word2Vec 是一種用於學習詞向量(word embeddings)的模型,透過神經網路將詞彙與其語義轉換為向量。Word2Vec 提供 CBOW 與 Skip-gram 兩種訓練方法,並透過 Negative Sampling 和 Subsampling 技術提升效率。本文章將介紹 Word2Vec 的基本原理與訓練方法。 Read More 0 0 0 0
Read More300 views8 minute read Artificial IntelligenceNatural Language Processing門控循環單元(Gated Recurrent Unit, GRU)ByWayne24/02/2025 門控循環單元(Gate recurrent unit, GRU)是一種 RNN,專門用來處理序列資料(sequential data)。與長短期記憶網路(long short-term memory)相似,它的設計目的是解決標準 RNN 長期依賴(long-term dependency)問題。 Read More 0 0 0 0