精選文章
- 取得連結
- X
- 以電子郵件傳送
- 其他應用程式
離線版 Deepseek 是否能再自我學習改進? - 1
深淵求索 - Deepseek 之道列表
cinematic photo still, glamour shot of an anthropomorphic robot with a board written "Deepseek" on the chest, helping at home, This photo was taken by using Canon EOS R5 camera, presenting stunning details, extremely detail and intricate, ultra fine, photo style of Mika Ninagawa + Topaz Leung + Escher + Édouard Manet + Wong Kar - Wai, inspired by Cowboy bebop + Sailor moon, cinematic lighting, hyper realistic photography, ultra realistic --ar 71:128 --v 6.1 --q 2
先前裝了一個離線版的 Deepseek R1 (14B) - 網誌
今天在想, Deepseek 能否學習修正, 繼續成長?
之前有人說, deepseek 會說他是由 openai 開發出來的;
先來試試 R1 會怎麼回答;
接著教他是 Neo 開發的看看,
還真的會修正耶!
接著來試試 Ollama 的 save/load 功能:
--
Ollama 的 /save
指令主要用於保存當前的會話狀態或模型配置,這樣用戶可以在未來的會話中恢復之前的對話內容或模型設置。以下是有關 /save
指令的詳細介紹及其操作方法:
用途
-
保存會話狀態:使用
/save
指令可以將當前的對話內容保存為一個會話檔案,這樣用戶在下次啟動 Ollama 時,可以輕鬆地恢復之前的對話歷史。 -
模型配置保存:除了會話內容,該指令還可以保存當前模型的配置,這對於需要多次調整模型參數的用戶來說非常有用。
操作方法
-
執行指令:
- 在 Ollama 的命令行介面中,輸入
/save
,後面可以跟上你想要保存的會話名稱,例如:/save session1
- 這樣會將當前的會話狀態保存為名為
session1
的檔案。
- 在 Ollama 的命令行介面中,輸入
-
載入會話:
- 若要恢復之前保存的會話,可以使用
/load
指令,後面跟上會話名稱,例如:/load session1
- 這樣 Ollama 將會載入
session1
的內容,讓你繼續之前的對話。
- 若要恢復之前保存的會話,可以使用
-
注意事項:
- 確保在使用
/save
指令之前,已經進行了足夠的對話或設置,以便保存有意義的內容。 - 使用
/load
指令時,需確保指定的會話名稱正確,否則將無法載入。
- 確保在使用
--
來試試!
可行耶!孺子可教矣!
感覺這像 chatgpt 的對話串, 或 Felo AI 的 主題集
--
Nvidia 的 黃仁勳 在今年 2025 的 CES 中介紹了 電腦的演變;
看來真的以往 coding 的方式要轉變了, 變得更像老師和學生之間的關係;
來試試chatgpt 之前做的日文題 - 網誌
很神奇的, 這次deepseek 答對了
不過並沒有看到 library 有特別更新?
https://ollama.com/library/deepseek-r1/tags
先不管這, 先看看他能不能當資料庫
我先給他一段時間的 日圓兌換台幣的匯率價格
疑, 我什麼時候提醒了兩次更正開發者名稱? 難道每 load 一次多一次?
( 後來發現好像是我多開了一個 terminal 執行的樣子...)
不過看他回答感覺有戲. 繼續問他會做什麼.

看來 deepseek r1 真的記住了, 很可以;
教育最重要的關鍵之一是反饋 (Feedback), 覺得這方式,
可以培育出很多不同的適合自己的小幫手,
繼續發掘 deepseek 的可能性!
--
後記:
後來中間穿插一些像餵入一篇文章請他抓重點之後, 發現的確有可能還是會忘記,
看來將來最好還是能自己編譯 deepseek 模組會比較好, 這樣看有沒有機會來
加強這個模型結構...
===
底下記錄一下 Deepseek R1 的特點
--
Deepseek R1 特點:
思維鏈(Chain of Thought)
像我們可以看到 Deepseek 回答問題前, 會有一段思考, 這個是運用到了 思維鏈 (chain of thought) 的技術; 思維鏈(Chain of Thought,簡稱 CoT)是一種人工智慧技術,旨在提升模型在解決複雜問題時的推理能力。這種技術通過引導模型逐步思考,模擬人類的思維過程,從而提高其在推理和決策方面的表現。
主要特點
-
逐步推理:
- 思維鏈技術要求模型在回答問題時,按照邏輯步驟逐步推理,而不是直接給出最終答案。這樣的過程可以幫助模型更好地理解問題的各個方面,並清晰地闡述其推理過程。
-
模擬人類思維:
- 通過模擬人類的思考過程,這種技術能夠使模型在面對複雜問題時,像人類一樣進行分析和推理,從而提高答案的準確性和合理性。
-
透明度和理解:
- 思維鏈技術強調展示答案背後的思考過程,這種透明度使得使用者能夠更好地理解模型的推理過程,從而更容易信任其輸出結果。
應用範圍
思維鏈技術在許多應用中顯示出其潛力,包括:
-
教育輔助:AI助教可以利用思維鏈來解釋複雜概念,幫助學生逐步理解知識。
-
數學問題解決:在解決數學問題時,模型可以將問題拆解為較小的部分,逐步推理出正確答案。
-
自然語言處理:在情感分析和問答系統中,思維鏈技術能夠通過逐步推理,提升模型的理解和回答能力。
結論
總的來說,思維鏈是一種強化 AI 模型推理能力的技術,通過模擬人類的思維過程,提升了模型在解決複雜問題時的準確性和有效性。這種方法不僅提高了模型的表現,還使得其推理過程更加透明,便於用戶理解和信任。
--
自動思維鏈:Auto CoT
亞馬遜團隊在三年前, 有分享一個自動思維鏈 Auto CoT 的研究
https://github.com/amazon-science/auto-cot
主要目的是減少手動設計推理示例的工作量,並提高模型的推理效率和準確性。
主要特點
-
自動生成推理鏈:
- Auto CoT 通過自動化流程生成推理鏈,這些推理鏈可以用於幫助模型逐步解決問題。這樣的自動化不僅提高了效率,還能確保生成的推理鏈涵蓋多樣性,從而增強模型的適應性。
-
多樣性和聚類:
- 在生成推理鏈的過程中,Auto CoT 使用了聚類技術,將問題根據語義相似性進行分組,然後從每個群組中選擇代表性問題來生成推理鏈。這樣可以確保生成的示例涵蓋不同的推理模式,從而提高模型的學習效果。
-
應用範圍:
- Auto CoT 在多個推理任務上表現出色,包括算術、常識推理和符號推理等。研究顯示,Auto CoT 的性能可以與手動設計的推理鏈相媲美,甚至在某些情況下超越它們。
操作流程
-
問題聚類:使用 Sentence-BERT 將問題進行嵌入和聚類,以確保選擇的示例涵蓋多樣的推理模式。
-
生成推理鏈:從每個聚類中選擇一個代表性問題,並使用零樣本思維鏈(Zero-Shot CoT)生成推理鏈,這樣模型可以在沒有人工干預的情況下進行推理。
結論
自動思維鏈(Auto CoT)技術通過自動生成推理示例,顯著提升了大型語言模型的推理能力,並減少了手動設計推理鏈的工作量。這項技術不僅提高了模型在複雜問題上的表現,還擴展了其應用範圍,為未來的人工智慧研究和應用提供了新的可能性。
--
強化學習採用 GPRO
Group Relative Policy Optimization(GRPO)是一種新型的強化學習(RL)算法,旨在提升大型語言模型(LLM)在推理和決策過程中的效率和穩定性。GRPO的核心思想是通過比較不同策略組的表現來優化模型,而不是依賴傳統的價值函數模型,這使得其在訓練過程中能夠更有效地利用數據。
主要特點
-
無需價值模型:
- GRPO不依賴於傳統強化學習中的價值模型(Critic),這樣可以顯著降低計算和存儲需求,特別是在處理大規模模型時。
-
組內相對獎勵:
- 該算法通過生成多個候選輸出並計算它們之間的相對獎勵來進行優化。這種方法不僅提高了樣本效率,還減少了策略更新的方差,從而增強了學習的穩定性。
-
KL散度約束:
- GRPO使用KL散度來正則化策略更新,確保模型在訓練過程中不會過度偏離當前策略,這有助於保持訓練的穩定性和連貫性。
-
多階段訓練:
- 在DeepSeek-R1的訓練流程中,GRPO被應用於強化學習階段,並結合了監督微調(SFT)和其他訓練策略,以進一步提升模型的性能。
應用效果
-
性能提升:
- GRPO在多個推理任務中顯示出顯著的性能提升。例如,在AIME 2024數學競賽中,DeepSeek-R1模型的Pass@1準確率從15.6%提升至71.0%。
-
計算效率:
- 由於不需要維護價值模型,GRPO在計算資源和內存需求上比傳統的PPO(Proximal Policy Optimization)算法更具優勢,這使得其在大規模語言模型的訓練中更加高效。
-
穩定性:
- GRPO通過控制策略更新的幅度,避免了過大的策略變化,從而提高了訓練過程的穩定性,這對於需要長期學習的任務尤為重要。
結論
總的來說,Group Relative Policy Optimization(GRPO)是一種創新的強化學習算法,通過無需價值模型的設計和組內相對獎勵的計算,顯著提升了大型語言模型的推理能力和訓練效率。這使得GRPO在當前的AI研究和應用中,特別是在複雜推理任務中,展現出強大的潛力和優勢。
--
蒸餾法(Distillation)
蒸餾法(Distillation)是一種機器學習技術,主要用於將大型模型(通常稱為教師模型)中的知識轉移到較小的模型(稱為學生模型)中。這種方法旨在在保持性能的同時,減少模型的大小和計算需求,使其更適合在資源有限的環境中部署。
主要概念
-
教師模型與學生模型:
- 教師模型是一個大型且複雜的模型,通常擁有數十億的參數,能夠從大量數據中學習到複雜的模式和知識。學生模型則是較小的模型,其目標是模仿教師模型的行為,並在此過程中學習到相似的知識和能力。
-
知識轉移:
- 在蒸餾過程中,學生模型通過觀察教師模型的輸出,學習如何對特定輸入做出反應。這種學習方式使得學生模型能夠在不需要大量標註數據的情況下,獲得與教師模型相似的性能。
-
應用場景:
- 蒸餾法特別適合用於需要快速響應和低計算資源的應用場景,如移動設備和邊緣計算設備。通過將大型模型的知識壓縮到小型模型中,開發者可以在不妥協性能的情況下,實現更高效的AI應用。
技術流程
-
數據準備:
- 在蒸餾過程中,通常需要大量未標註的數據。教師模型會對這些數據進行標註,生成合成標籤,這些標籤將用於訓練學生模型。
-
訓練學生模型:
- 學生模型使用教師模型生成的標籤進行訓練,目的是使其能夠模仿教師模型的行為。這一過程通常涉及調整學生模型的參數,以最小化其輸出與教師模型輸出之間的差異。
-
性能評估:
- 訓練完成後,學生模型的性能會與教師模型進行比較,以確保其在特定任務上的表現達到預期的標準。
優勢與挑戰
優勢:
-
資源效率:
- 蒸餾法能夠顯著減少模型的大小和計算需求,使得AI應用更具可擴展性和可部署性。
-
快速響應:
- 小型模型通常具有更快的推理速度,適合實時應用。
挑戰:
-
性能限制:
- 學生模型的性能通常受限於教師模型的能力,若教師模型在某些任務上表現不佳,學生模型也可能無法達到理想的效果。
-
數據需求:
- 雖然蒸餾法減少了對標註數據的需求,但仍然需要大量的未標註數據來生成有效的訓練樣本。
結論
蒸餾法是一種有效的技術,能夠將大型語言模型的知識轉移到較小的模型中,從而在保持性能的同時,降低計算資源的需求。這使得AI技術能夠在更多的應用場景中得到實現,特別是在資源有限的環境中。隨著技術的進步,蒸餾法的應用將會越來越廣泛,成為AI模型開發的重要工具之一。
--
混合專家架構(Mixture of Experts, MoE)
混合專家架構(Mixture of Experts, MoE)是一種先進的深度學習模型架構,旨在提高計算效率和模型性能。這種架構通過引入多個專家模型(Experts)來處理不同的任務,並根據輸入數據的特性動態選擇激活的專家,從而實現更高效的計算和更好的推理能力。
主要特點
-
專家模型:
- 在 MoE 架構中,每個專家模型專注於處理特定類型的輸入或任務。這意味著不同的專家可以針對不同的子任務進行優化,從而提高整體模型的靈活性和性能。
-
動態選擇:
- MoE 使用一個門控網絡(Gating Network)來決定對於每個輸入,哪些專家應該被激活。這樣,模型在推理過程中只會激活一部分專家,從而減少計算資源的消耗,並提高推理速度。
-
計算效率:
- 由於只有部分專家在每次推理中被激活,MoE 能夠顯著降低計算需求,這使得它特別適合於處理大規模數據和複雜任務的場景。
技術優勢
-
提高性能:
- MoE 架構能夠通過專家之間的協作來提高模型的整體性能,尤其是在處理複雜的自然語言處理(NLP)任務時。
-
資源節省:
- 由於只激活必要的專家,MoE 可以在不損失性能的情況下,顯著降低計算和存儲成本,這對於資源有限的環境尤為重要。
-
靈活性:
- MoE 的設計使其能夠根據不同的任務需求動態調整專家的使用,這種靈活性使得模型能夠適應多種應用場景。
應用場景
-
自然語言處理:
- MoE 在 NLP 任務中表現出色,特別是在需要處理大量文本數據的情況下,如機器翻譯、文本生成和情感分析等。
-
計算機視覺:
- 除了 NLP,MoE 也可以應用於計算機視覺任務,通過專家模型專注於不同的圖像特徵來提高識別精度。
結論
混合專家架構(MoE)是一種強大的深度學習技術,通過動態選擇和激活專家模型來提高計算效率和性能。這種架構不僅能夠在多種應用場景中發揮作用,還能夠有效地利用計算資源,為未來的AI模型設計提供了新的思路和方向。隨著技術的進步,MoE 將在各種領域中發揮越來越重要的作用。
--
偏好對齊(Alignment with Human Preferences)
偏好對齊(Alignment with Human Preferences)是指在人工智慧(AI)模型的訓練過程中,確保模型的行為和輸出與人類的期望和需求相一致的技術。這一概念在大型語言模型(LLM)中尤為重要,因為這些模型的應用範圍廣泛,涉及到人類的各種需求和情感反應。
主要特點
-
人類反饋的整合:
- 偏好對齊通常依賴於人類反饋,這意味著模型在訓練過程中會收集來自用戶的評價和意見,並根據這些反饋調整其行為。這種方法被稱為強化學習從人類反饋(Reinforcement Learning from Human Feedback, RLHF)。
-
獎勵模型的建立:
- 在偏好對齊的過程中,會建立一個獎勵模型,這個模型根據人類的偏好來評估模型的輸出。通過這種方式,模型可以學習哪些輸出是更受歡迎的,從而在未來的推理中優先生成這些類型的輸出。
-
多階段訓練流程:
- 偏好對齊通常涉及多個訓練階段,包括初步的強化學習階段和後續的微調階段。在這些階段中,模型會不斷調整其行為,以更好地符合人類的期望。
技術優勢
-
提高模型的實用性:
- 通過對齊人類偏好,模型能夠生成更符合用戶需求的輸出,這提高了模型的實用性和用戶滿意度。
-
減少不當輸出:
- 偏好對齊有助於減少模型生成不當或不合適內容的風險,這對於許多應用場景(如客服、教育等)至關重要。
-
增強模型的靈活性:
- 隨著模型不斷學習和適應人類的偏好,它能夠在不同的上下文中更靈活地調整其行為,這使得模型在多樣化的應用中表現更佳。
應用場景
-
客服系統:
- 在客服應用中,偏好對齊可以幫助模型更好地理解用戶的需求,提供更準確和有用的回答。
-
內容生成:
- 在內容生成的應用中,模型可以根據用戶的偏好生成更具吸引力和相關性的內容,從而提高用戶的參與度和滿意度。
-
教育輔助:
- 在教育領域,偏好對齊可以幫助模型根據學生的學習風格和需求提供個性化的學習建議和資源。
結論
偏好對齊是提升AI模型性能和用戶體驗的重要技術。通過整合人類反饋和建立獎勵模型,AI能夠更好地理解和滿足用戶的需求,從而在各種應用中發揮更大的作用。隨著技術的進步,偏好對齊將在未來的AI發展中扮演越來越重要的角色。
--
無監督強化學習(Unsupervised Reinforcement Learning, URL)
無監督強化學習(Unsupervised Reinforcement Learning, URL)是一種結合了無監督學習和強化學習的機器學習方法。這種方法的主要特點是,它不依賴於標記的數據,而是通過與環境的互動來學習最佳策略,並且在學習過程中不需要明確的獎勵信號。
主要特點
-
無需標記數據:
- 無監督強化學習不需要事先標記的數據集,這使得它在數據獲取困難或成本高昂的情況下特別有用。模型通過探索環境來獲取經驗,並從中學習。
-
探索與利用:
- 在無監督強化學習中,模型需要在探索新策略和利用已知策略之間取得平衡。這種探索過程有助於模型發現新的行為模式和策略,從而提高其在複雜環境中的表現。
-
獎勵信號的自我生成:
- 無監督強化學習通常會使用自我生成的獎勵信號,這些信號基於模型的行為和環境的反應。這種方法使得模型能夠在缺乏明確獎勵的情況下進行學習。
技術優勢
-
靈活性:
- 無監督強化學習能夠適應多變的環境,並且不受限於固定的標記數據,這使得它在許多動態和不確定的應用場景中表現出色。
-
降低數據需求:
- 由於不需要大量的標記數據,無監督強化學習可以在數據稀缺的情況下進行有效的學習,這對於許多實際應用來說是非常重要的。
-
發現隱藏模式:
- 通過探索,無監督強化學習能夠發現數據中的隱藏模式和結構,這對於理解複雜系統的行為非常有幫助。
應用場景
-
機器人控制:
- 在機器人控制中,無監督強化學習可以幫助機器人學習如何在未知環境中進行導航和操作,而不需要事先的指導或標記數據。
-
遊戲AI:
- 在遊戲中,無監督強化學習可以用於訓練AI代理在沒有明確獎勵的情況下學習最佳策略,從而提高其遊戲表現。
-
自動駕駛:
- 在自動駕駛技術中,無監督強化學習可以幫助車輛在複雜的交通環境中學習如何做出決策,從而提高安全性和效率。
結論
無監督強化學習是一種強大的機器學習方法,通過結合無監督學習和強化學習的優勢,能夠在缺乏標記數據的情況下進行有效的學習。這種方法在許多動態和複雜的應用場景中展現出良好的性能,並且隨著技術的進步,無監督強化學習的應用前景將更加廣闊。
- 取得連結
- X
- 以電子郵件傳送
- 其他應用程式
留言
張貼留言