DeepLearning101

演示體驗、持續更新

  • 那些 AI Agent 要踩的坑:探討多種 AI 代理人工具的應用經驗與挑戰,分享實用經驗與工具推薦。
    • 多種 AI 代理人工具應用與體驗,並指出部分工具在穩定性和安裝過程中存在挑戰。
    • 包括 Cline、MCP、OpenManus、MetaGPT、LangManus、OWL、UI-TARS、autoMate 和 OmniParser。

  • 白話文手把手帶你科普 GenAI:淺顯介紹生成式人工智慧核心概念,強調硬體資源和數據的重要性。
    • 介紹生成式人工智慧(GenAI)的核心概念,包括大型語言模型(LLM)、提示詞設計(Prompt)、檢索增強生成(RAG)、微調(Fine-Tuning)、功能調用(Function Calling)、工作流程(Workflow)、代理人(Agentic)和多模態(Multimodal)等。
    • 分享這些技術在實際應用中的經驗,並強調了硬體資源和數據在開發過程中的重要性。
  • 大型語言模型直接就打完收工?回顧 LLM 領域探索歷程,討論硬體升級對 AI 開發的重要性。
    • 回顧在大型語言模型(LLM)領域的探索歷程,分享了在語音識別、文本分類等多個自然語言處理(NLP)任務中的實踐經驗。 
    • 隨著 LLM 的出現,許多過去需要複雜處理的任務變得更加簡單,並討論了硬體升級對 AI 開發的重要性。
  • 那些檢索增強生成要踩的坑探討 RAG 技術應用與挑戰,提供實用經驗分享和工具建議。
    • 探討了檢索增強生成(Retrieval-Augmented Generation, RAG)技術的應用與挑戰,特別是結合知識圖譜的 GraphRAG 方法。 ​
    • 分享在本地端部署大型語言模型(LLM)的經驗,並強調了硬體資源的重要性。
    • 還介紹如何有效地將文檔拆分為片段(chunk),並使用嵌入模型和重新排序器(Reranker)來提升檢索結果的準確性。 ​
    • 提供多種開源工具的推薦,如 Ollama、xinference 和 MinerU,來協助處理 PDF 等非結構化資料。 
    • 文章強調了在實施 RAG 技術時需注意的各種挑戰,並提供了實用的經驗分享和工具建議。
  • 那些大型語言模型要踩的坑探討多種 LLM 工具的應用與挑戰,強調硬體資源的重要性。
    • 探討多種大型語言模型(LLM)工具的應用與挑戰,包括 Ollama、Dify、OpenManus、LangFlow、Flowise、RAGFlow、AnythingLLM、CrewAI 和 AutoGen。
    • 分享這些工具在實際應用中的經驗,並指出部分工具在穩定性和安裝過程中可能遇到的困難。 
    • 強調了硬體資源在 LLM 開發中的重要性,並提供了硬體升級的建議。 
  • Large Language Model,LLM探討 LLM 的發展與應用,強調硬體資源在開發中的關鍵作用。
    • 探討大型語言模型(LLM)的發展與應用,特別是 OpenAI 的 GPT-3 和 ChatGPT 的影響力。 
    • 詳細說明了訓練這些模型所需的龐大資源,例如,訓練 GPT-3 模型需要使用 1,024 張 A100 GPU,耗時 24 天。
    • 強調硬體資源在 LLM 開發中的關鍵作用,並分享了作者在硬體升級方面的經驗。
  • ComfyUI + Stable Diffuision深入探討影像生成與分割技術的應用,強調硬體資源的重要性。
    • 深入探討了多種影像生成與分割技術的應用與發展,特別是 ComfyUI、Stable Diffusion、FLUX、Segment Anything Model 2(SAM2)等工具的結合使用。 
    • 分享實際應用中的經驗,並強調了硬體資源在影像處理任務中的重要性。 
    • 介紹了多模態模型的應用,展示了如何同時處理文本、影像等多種數據形式,以提升影像生成與分割的效果。
  • 那些ASR和TTS可能會踩的坑探討 ASR 和 TTS 技術應用中的問題,強調數據質量的重要性。
    • 探討了在自動語音識別(ASR)和文本轉語音(TTS)技術應用中可能遇到的問題與解決方案。 
    • 分享在實際商業場景中使用 OpenAI 的 Whisper 模型的經驗,並強調了微調模型以提升中文語音識別效果的重要性。 
    • 文章介紹了多種開源工具,如 faster-whisper、WhisperX 和 BELLE-2,這些工具可用於優化 ASR 和 TTS 的性能。 
    • 強調數據質量在模型訓練中的關鍵作用,並提供了處理和訓練數據的工具與技巧。
  • 那些自然語言處理踩的坑分享 NLP 領域的實踐經驗,強調數據質量對模型效果的影響。
    • 分享在自然語言處理(NLP)領域的實踐經驗,涵蓋文本糾錯、文本分類、文本相似度、命名實體識別、文本摘要和機器閱讀理解等應用。 
    • 強調數據質量對模型效果的關鍵影響,並指出在深度學習興起前,已有多種演算法可供使用。 
    • 文章提到 BERT 等模型的出現對 NLP 領域的重大影響,並建議讀者了解相關技術。
  • 那些語音處理 (Speech Processing) 踩的坑分享語音處理領域的實務經驗,強調資料品質對模型效果的影響。
    • 分享在語音處理領域的實務經驗,涵蓋了說話者辨識、語音增強、語音分離等多個面向。 
    • 強調資料品質對模型效果的關鍵影響,並指出在深度學習興起之前,已有多種演算法可供使用。
    • 文章提到硬體資源在語音處理任務中的重要性,分享了作者在硬體升級的經驗

  • 手把手帶你學 Pytorch、CUDA、NVIDIA-SMI、cuDNN、Ubuntu、NGC、Docker、NVIDIA-Docker 的安裝與設定詳細介紹在 Ubuntu 上安裝深度學習環境的步驟,分享實際操作經驗。
    • 詳細介紹在 Ubuntu 系統上安裝與配置深度學習環境的步驟,包括 TensorFlow、PyTorch、CUDA、NVIDIA-SMI、cuDNN、NGC、Docker 和 NVIDIA-Docker 等組件。 
    • 分享在實際操作中可能遇到的挑戰與解決方案,並強調硬體資源在深度學習開發中的重要性。 
    • 文章還介紹了作者在硬體升級方面的經驗,展示了從 GIGABYTE GTX 960 4G 到 RTX 6000 Ada 48 GB 等顯卡的演進過程。