2024年5月19日 星期日

最簡單的自架 AI 生圖 Stability Matrix (包含 Stable Diffusion)

前言

摸索了一陣子 自己架設AI生圖無限使用的方法

發現目前最好用簡便的是這個 Stability Matrix 


?為何要自己架設呢,不是有一堆網站很便利嗎?

點數有限、限制很多啊,例如圖的尺寸、內容等,不同的需求還要用不同的網站平台,如果每個都去付費,不常用也不划算。

(分期付款解決方案)


要玩自己架站生圖有幾個條件:

VRAM容量大的顯卡+高速的網路+大容量SSD

因為大模型真的都很大,更大或批次的圖需要更大的VRAM

同樣的需求還能順便玩LLM大模型把GPT架在家

(一次付清解決方案)


Stability Matrix  是目前我測過最簡單的解決方案了

各種UI介面套件可適用各廠牌不同顯卡

讓生圖不再是只有N卡的天下(雖然我還沒測過,可以本文後方的說明)

投資一下自己練練功,買個顯卡一起來玩GAI/AIGC吧

最近也在研究自架LLM,GPTs也會是AI 時代的顯學

(下午要來裝網路了,真開心!)


不過這些內容不適合心智未成熟的小孩

大家要注意...尤其是要用在教學上的還是用網站平台比較好

18以下還是要透明跟監管比較確實一點


但這兩樣的確可以顛覆很多產業!!!

練好功當顧問也不錯,各種行業都用得上

正文

Stability Matrix 是一個多平台的套件管理器,專為 Stable Diffusion 設計。它提供了一個一鍵安裝和更新 Stable Diffusion Web UI 套件的解決方案。這個工具支援多種 Stable Diffusion 的 Web UI 版本,包括 Automatic 1111, SD Web UI-UX, 和 SD.Next 等。

Stability Matrix 的特點包括:

  • 一鍵安裝:簡化了 Stable Diffusion 的部署過程,用戶只需執行 StabilityMatrix.exe 即可自動下載所需的檔案和模型。
  • 多達 7 個 Web UI 控制:提供圖形介面,方便用戶控制不同的 Web UI 版本。
  • 可攜模式:允許用戶在不同的設備間移動 Stability Matrix 的數據目錄,增加了靈活性。
  • 推斷界面:內置於 Stability Matrix 中,提供強大的自動完成和語法高亮功能。

這個工具大幅降低了使用 Stable Diffusion 的門檻,使得用戶能夠更容易地享受到 AI 圖像生成的樂趣。

好心提醒:沒有RTX獨顯6G/8G以上,且本機記憶體低於16G者,儘量不要輕易嘗試自架本機生圖,以免吐血

個人感覺:這應該是最簡單的 Stable Diffusion 安裝方式,這是一個整合的下載程式,內含SD的界面和模型庫的管理,還有各種進階的使用方式,下載安裝即可,還可以選用攜帶型方式安裝在資料夾內,之後可以帶著走,如果安裝中途卡住或失敗可以使用 power shell :pip cache purge 清理一下再重裝一次。所以可以去網路好的地方下載,裝在外接SSD攜帶使用。

事先準備:

  • VRAM6G 以上的顯卡最好是老黃的NVIDIA
  • 高速網路或光纖
  • 排除未成年的小朋友(安裝階段不用啦!)

安裝方式:



  • 點選在右方的 Releases 版本後,找到需要的 windows 版安裝檔下載,存放在一個乾淨的目錄中,路徑及資料夾名稱中不要有特殊符號或是中文字



  • 解壓縮後直接點選安裝,安裝時請你先選一個Packages,你可以先選Stable Diffusion WebUI 來安裝,其餘可先略過。
  • 安裝時可選擇攜帶式安裝,他會將所有檔案安裝在同一資料夾中,方便你日後攜帶移動。
  • 安裝過程要一些時間,檔案都很大,下載需要時間,WebUI 第一次啟動也是要等,中途不要打斷
  • 在Package 中下方可以新增其他不同介面和用法的 Package。
  • 在model 可以搜尋新的模型(稱為checkpoint)下載,不同模型可以生成不同風格圖案。
  •  之後可以安裝模型或其他外掛套件使用,安裝模型時有些會要求要設定登入Civitai 網站才可下載,這類模型會出現安裝錯誤,只要登入網站產生金鑰重新鏈結即可(免費)。
  • 如果確認安裝中途卡住或失敗可以在資料夾中按Shift+滑鼠右鍵,啟動power shell,在視窗內下指令清除Cache,指令如下 :pip cache purge 清理一下再重裝即可。
各類模型類型和選項:
  • 基底模型(Base Model):由StableAI公司開源的Stable Diffusion基礎模型,如SD 1.5、SD2.0、SDXL 1.0等。
  • Checkpoint:基於基底模型微調的模型,用於生成高品質圖像,形成圖像的基本風格,如真實風格或卡通風格。
  • 選項模型:附加在Checkpoint上的微調模型,增強或改變圖像風格。
  • 文本反轉(Textual Inversion)、低秩調整(LoRA)、值自動編碼器(VAE)等用於產生特定特徵或調整圖像參數。

各種Package:

  • Stable Diffusion WebUI Forge:是一個建立在 Stable Diffusion WebUI 之上的平台,旨在使開發更容易、優化資源管理並加速推理過程。這個項目的名稱 “Forge” 源自於 “Minecraft Forge”,目標是成為 SD WebUI 的 Forge 版本。與原始的 SD WebUI 相比,它提供了以下幾個顯著的優勢:
    • 更快的生成速度:Forge 通過簡化代碼邏輯和優化資源配置來加快推理速度,尤其對於显存较小的用户,性能提升更为明显。例如,使用 8GB 显存的 GPU 可以期待推理速度提升約 30~45%,GPU 内存峰值降低約 700MB 到 1.3GB,最大扩散分辨率提升約 2x 到 3x,最大批处理大小提升約 4x 到 6x1。
    • 更优质的插件生态环境:Forge 对资源管理方面的程序进行了优化,因此各类功能插件的适配范围大大提升,减少了不同扩展插件相互干扰的风险,提高了插件的兼容性和稳定性2。
    • 支持更多的采样器:Forge 在原版基础上添加了更多的采样器,包括 DDPM、DDPM Karras、DPM++2M Turbo、DPM++2M SDE Turbo、LCM Karras、Euler a Turbo 等,用户可以根据需要选择合适的采样算法2。
    • 此外,Forge 項目還預安裝了 ControlNet、FreeU、SVD 视频生成、Z123 图生 3D 对象等功能拓展,原版 SD WebUI 没有的 Ip-adapter 蒙版、controlnet 蒙版、photomaker 等功能在 Forge 中都得到了原生支持。這些特點使得 Stable Diffusion WebUI Forge 成為一個性能強大且易於使用的工具,適合各種用戶,包括那些显存较低的用户
  • Automatic 1111:是一個流行的 Stable Diffusion Web UI,它提供了一個直觀且功能豐富的界面,讓用戶能夠輕鬆地使用 Stable Diffusion 模型來生成圖像。以下是 Automatic 1111 的一些主要特色:
    • 用戶友好的界面:Automatic 1111 設計了一個清晰且易於導航的界面,使得用戶即使是初次接觸也能快速上手1。
    • 豐富的功能:除了基本的文本到圖像(txt2img)和圖像到圖像(img2img)模式,Automatic 1111 還提供了許多進階功能,如外繪(Outpainting)、內繪(Inpainting)、顏色素描、提示矩陣(Prompt Matrix)、穩定擴大(Stable Diffusion Upscale)等1。
    • 強大的擴展性:Automatic 1111 支援多種擴展和插件,包括 GFPGAN、CodeFormer、RealESRGAN、ESRGAN、SwinIR 和 Swin2SR 等,這些工具可以用於修復臉部、圖像放大和其他圖像處理任務1。
    • 此外,Automatic 1111 還提供了一鍵安裝和運行腳本,支援在 Windows、Mac 和 Google Colab 上運行,並且有一個活躍的社區,不斷地為其帶來新功能和改進。這使得 Automatic 1111 成為許多進階用戶首選的 Stable Diffusion GUI2。這些特色使得 Automatic 1111 不僅適合創意藝術家和設計師,也適合教育工作者和學生,作為探索 AI 和圖像生成的工具
  • Automatic 1111 DirectML :是 Automatic 1111 Stable Diffusion Web UI 的一個擴展,它使用 Microsoft DirectML 來在 Windows 平台上優化基礎 Stable Diffusion 模型的執行。這個擴展的主要特色包括:
    • 跨硬件的性能提升:由於 DirectML 能夠在各種 Windows GPU 上運行,因此用戶可以期待在廣泛的加速硬件上獲得性能提速1。
    • 優化的模型執行:這個擴展允許對基礎模型進行優化,以便更有效地利用 DirectML 的能力。這包括轉換模型到 ONNX 格式,並通過 Microsoft 的 Olive 工具進行進一步的優化1。
    • 支持多版本的 Stable Diffusion:目前,這個擴展支持 Stable Diffusion 的 1.5、2.0 和 2.1 版本,使得用戶可以在不同版本之間進行選擇和切換1。
    • 這個擴展特別適合那些在非 CUDA 兼容 GPU 上運行 Automatic 1111 Web UI 的用戶,因為它可以在這些設備上提供更好的性能。此外,這個擴展還提供了一個簡化的安裝和設置過程,使得用戶可以更輕鬆地開始使用 Stable Diffusion2。這些特點使得 Automatic 1111 DirectML 成為一個強大的工具,特別是對於那些希望在 Windows 系統上充分利用 AI 圖像生成能力的用戶。
  • SD Web UI-UX:是一個為 Stable Diffusion 模型設計的高度定制化的網頁界面,它利用強大的 Gradio 函式庫來提供無與倫比的自定義和優化選項。以下是 SD Web UI-UX 的一些主要特色:
    • 優化的 Gradio 樣式:SD Web UI-UX 替換了所有默認的 Gradio 樣式表,以促進組件間更好的視覺一致性。它還消除了 DOM 中的內聯樣式和 Svelte 類,以減少混亂並提高效率1。
    • 微模板引擎:它包含一個多功能的微模板引擎,可以被其他擴展利用。這增加了界面的靈活性,允許用戶根據自己的需求進行更細致的調整1。
    • 用戶友好的配置界面:SD Web UI-UX 提供了一個易於使用的配置界面,用戶可以通過它來自定義主題樣式。此外,它還支持輸入範圍滑塊上的刻度標記,以提高可用性1。
    • 這些特色使得 SD Web UI-UX 成為一個非常適合需要高度定制化界面的用戶的選擇。無論是專業的圖像創作者還是對 AI 圖像生成感興趣的學生和教育工作者,SD Web UI-UX 都能提供一個強大且直觀的工作環境。1
  • SD.Next:是 Stable Diffusion 的一個進階實現版本,它提供了多種後端支援、模型支援和平台支援,以及一系列的優化功能。以下是 SD.Next 的一些主要特色:
    • 多後端支援:SD.Next 支援多種後端,包括 Diffusers 和原始的 Stable Diffusion 實現,允許用戶根據自己的需求選擇合適的後端1。
    • 多模型支援:除了支援原始的 Stable Diffusion 模型,SD.Next 還支援多種其他的擴展模型,如 SD-XL、LCM、Segmind、Kandinsky、Pixart-α、Pixart-Σ、Stable Cascade、Würstchen、aMUSEd、DeepFloyd IF、UniDiffusion、SD-Distilled、BLiP Diffusion、KOALA、SDXS、Hyper-SD 等1。
    • 平台支援:SD.Next 是多平台兼容的,支援 Windows、Linux 和 MacOS,並且可以在 CPU、nVidia、AMD、IntelArc/IPEX、DirectML、OpenVINO、ONNX+Olive 等不同的硬件上運行1。
    • 此外,SD.Next 還提供了優化的處理流程、增強的提示解析器、內置的隊列管理、企業級日誌記錄和 API、自動更新和依賴管理的安裝程序,以及現代化的用戶界面和主題支援。這些特色使得 SD.Next 成為一個功能強大且易於使用的工具,適合需要在不同平台和硬件上運行 Stable Diffusion 的用戶。1
  • Fooocus 系列(包括 Fooocus MRE 和 Fooocus ControlNet):Fooocus ControlNet 是一個基於 Fooocus、ControlNet、SDXL 和 IP-Adapter 等的免費圖像生成軟件。它在原始 Fooocus 軟件的基礎上增加了更多控制。Fooocus ControlNet 的特色包括:
    • 簡單的用戶界面:Fooocus ControlNet 保持了 Fooocus 的用戶界面,只在輸入圖像/圖像提示/進階中添加了更多選項2。
    • 方便二次開發:Fooocus ControlNet 通過簡單地定義預處理和添加配置文件,簡化了 Fooocus 與 ControlNet 的整合方式2。
    • 即開即用的軟件體驗:Fooocus ControlNet 致力於解決免費軟件在安裝和使用過程中遇到的問題,所有依賴都內建於軟件中2。
    • 這些工具提供了強大的圖像生成和控制能力,適合需要精細控制生成過程的用戶。無論是專業的圖像創作者還是對 AI 圖像生成感興趣的學生和教育工作者,Fooocus 系列都能提供一個強大且直觀的工作環境。3
  • SDXL:是 Stable Diffusion 的一個擴展版本,專為生成高解析度的圖像而設計。以下是 SDXL 的一些主要特色:
    • 高解析度圖像生成:SDXL 能夠輕鬆生成原生解析度達到 1024 x 1024 的圖像,這比原始 Stable Diffusion 模型的 512 x 512 解析度有顯著提升1。
    • 圖像質量優化:SDXL 模型配合細化器對圖像進行最佳化處理,從而提升人物五官、光影等細節的表現,使圖像品質進一步提升1。
    • 安裝與使用簡便:SDXL 的安裝過程簡化,用戶可以通過少數幾步驟完成安裝,並快速開始圖像生成的工作1。
    • SDXL 的這些特點使其成為那些尋求更高圖像質量和解析度的用戶的理想選擇。無論是專業的圖像創作者還是對 AI 圖像生成感興趣的學生和教育工作者,SDXL 都能提供一個強大且直觀的工作環境。1
  • Ruined Fooocus:是一個結合了 Stable Diffusion 和 Midjourney 的特點,旨在為用戶提供一個全新的 AI 藝術創作體驗的圖像生成工具。以下是 Ruined Fooocus 的一些主要特色:
    • 簡化的安裝過程:Ruined Fooocus 通過減少所需的點擊次數來簡化從下載到生成第一張圖像的過程1。
    • 專注於提示和生成:用戶可以專注於提示和圖像,而不需要擔心技術參數,享受人機交互的樂趣1。
    • 獨特的功能:Ruined Fooocus 為進階用戶開發了許多獨特的功能,以獲得完美的結果1。
    • Ruined Fooocus 的這些特點使其成為那些尋求創新和直觀 AI 藝術創作工具的用戶的理想選擇。無論是專業的藝術家還是對 AI 圖像生成感興趣的學生和教育工作者,Ruined Fooocus 都能提供一個強大且直觀的工作環境。1
  • ComfyUI:是一個為 Stable Diffusion 模型設計的強大且模塊化的圖形用戶界面(GUI)和後端系統。它提供了一個基於圖形/節點的界面,讓用戶可以設計和執行複雜的 Stable Diffusion 工作流程,而無需編寫任何代碼。以下是 ComfyUI 的一些主要特色:
    • 節點/圖形/流程圖界面:這個界面允許用戶實驗和創建複雜的 Stable Diffusion 工作流程,提供了豐富的自定義選項1。
    • 支持多種模型:ComfyUI 完全支持 SD1.x、SD2.x、SDXL、Stable Video Diffusion 和 Stable Cascade 等多種模型,增加了使用的靈活性2。
    • 異步隊列系統:它具有一個異步隊列系統,可以只重新執行工作流程中變化的部分,從而提高效率2。
    • 此外,ComfyUI 還提供了許多優化功能,例如低顯存模式、CPU 模式、支持從生成的 PNG 文件中加載完整工作流程,以及保存/加載工作流程為 Json 文件的能力。它還支持區域合成內繪製、ControlNet 和 T2I-Adapter 放大模型、unCLIP 模型等。ComfyUI 的設計旨在提供快速啟動和完全離線工作的能力,不會下載任何內容,確保了使用的安全性和便捷性2。
    • 這些特色使得 ComfyUI 成為一個非常適合需要高度定制化和複雜工作流程的用戶的選擇。無論是專業的圖像創作者還是對 AI 圖像生成感興趣的學生和教育工作者,ComfyUI 都能提供一個強大且直觀的工作環境。1
  • StableSwarmUI:是一個模塊化的 Stable Diffusion Web 用戶界面,它強調易於訪問的強大工具、高性能和可擴展性。以下是 StableSwarmUI 的一些主要特色:
    • 模塊化和可定制:StableSwarmUI 提供了一個模塊化的界面,用戶可以根據自己的需求進行定制和擴展1。
    • 高性能:它利用了強大且可擴展的 ComfyUI 後端,提供了一個完整的基於文本的界面,超越了視覺 UI,並支持多 GPU 和分布式生成功能2。
    • 易於使用:StableSwarmUI 的安裝過程幾乎完全自動化不需要 Python 知識或文件調試,使得初學者和非技術用戶也能快速啟動他們的創意工具2。
    • 此外,StableSwarmUI 支援新的模型,如 SD3 和 Stable Cascade,並且隨著它走向完全發布,開發者路線圖包括更多的直觀移動格式、動態標籤自定義以及潛在的 LLM 輔助提示集成。作為一個開源項目,StableSwarmUI 不斷從其專職開發者那裡獲得更新,並通過 GitHub 上的透明開發過程尋求反饋和貢獻1。這些特色使得 StableSwarmUI 成為一個非常適合需要高度定制化和複雜工作流程的用戶的選擇。無論是專業的圖像創作者還是對 AI 圖像生成感興趣的學生和教育工作者,StableSwarmUI 都能提供一個強大且直觀的工作環境。1
  • VoltaML:是一個輕量級的開源庫,專門用於將機器學習和深度學習模型轉換並在高性能推理運行時環境中運行,如 TensorRT、TorchScript、ONNX 和 TVM。以下是 VoltaML 的一些主要特色:
    • 高性能推理:VoltaML 可以將模型優化、編譯並部署到目標 CPU 和 GPU 設備上,僅需一行代碼即可完成1。
    • 支持多種量化:VoltaML 支持 FP16 量化和 Int8 量化,以及針對特定硬件的編譯,這有助於提升模型的運行效率和速度1。
    • 易於使用:VoltaML 提供了簡單的安裝過程,並且支持 Docker 容器,使得用戶可以快速開始使用1。
    • 此外,VoltaML 還提供了一系列的示例筆記本,包括對 ResNet-50、DeeplabV3_MobileNet_v3_Large、YOLOv5 和 YOLOv6 等模型的圖像分類、分割和物體檢測的應用。這些特色使得 VoltaML 成為一個非常適合需要在不同硬件上進行高性能推理的用戶的選擇。無論是專業的數據科學家還是對機器學習和深度學習感興趣的學生和教育工作者,VoltaML 都能提供一個強大且直觀的工作環境。1
  • InvokeAI:是一個專為 Stable Diffusion 模型設計的創意引擎,它賦予專業人士、藝術家和愛好者使用最新的 AI 驅動技術來生成和創建視覺媒體的能力。以下是 InvokeAI 的一些主要特色:
    • 領先的 WebUI:InvokeAI 提供了一個業界領先的基於網頁的用戶界面,使得用戶可以通過瀏覽器輕鬆地進行圖像生成和管理1。
    • 支持終端使用:除了 WebUI,InvokeAI 還支持通過命令行界面(CLI)進行操作,為那些偏好或需要腳本化工作流程的用戶提供了便利1。
    • 商業產品基礎:InvokeAI 也是多個商業產品的基礎,這些產品利用 InvokeAI 的技術來提供更專業的服務和解決方案1。
    • 此外,InvokeAI 是一個開源項目,由一個對技術和創意充滿熱情的團隊開發,他們致力於為創意人員和企業構建開源軟件,以利用最新的 AI 視覺媒體創作技術。InvokeAI 的開發受到社區支持和反饋的直接影響,並且鼓勵開發者和創意人員參與到生態系統的建設中來1。這些特色使得 InvokeAI 成為一個非常適合需要在不同平台上進行高性能創意工作的用戶的選擇。無論是專業的數據科學家還是對機器學習和深度學習感興趣的學生和教育工作者,InvokeAI 都能提供一個強大且直觀的工作環境。1
  • Kohya’s GUI:是一個專為 Stable Diffusion 模型設計的圖形用戶界面(GUI),它提供了一個直觀且功能豐富的界面,讓用戶能夠輕鬆地使用 Stable Diffusion 模型來生成圖像。以下是 Kohya’s GUI 的一些主要特色:
    • 易於安裝和使用:Kohya’s GUI 提供了一個簡化的安裝流程,使得用戶可以快速開始使用 Stable Diffusion 來訓練和生成圖像1。
    • 豐富的功能選項:它包括多種優化器選擇,以及對學習率和其他訓練參數的細致控制,讓用戶可以根據自己的需求進行調整2。
    • 支援多種模型和訓練方式:Kohya’s GUI 支援多種 Stable Diffusion 模型,包括 LoRA 模型,並提供了多種訓練方式,如 LyCORIS Preset,以適應不同的訓練需求1。
    • 此外,Kohya’s GUI 還提供了一個強大的提示詞建檔工具幫助用戶更有效地創建和管理他們的提示詞。這些特色使得 Kohya’s GUI 成為一個非常適合需要高度定制化和複雜工作流程的用戶的選擇。無論是專業的圖像創作者還是對 AI 圖像生成感興趣的學生和教育工作者,Kohya’s GUI 都能提供一個強大且直觀的工作環境。1
  • OneTrainer:是一個為 Stable Diffusion 模型訓練需求而設計的全面解決方案。它提供了一系列功能,以支援用戶在各種模型上進行訓練和微調。以下是 OneTrainer 的一些主要特色:
    • 支援多種模型:OneTrainer 支援 Stable Diffusion 1.5、2.0、2.1、SDXL、Würstchen-v2、Stable Cascade、PixArt-Alpha 以及修補模型等多種模型格式,包括 diffusers 和 ckpt1。
    • 多樣的訓練方法:提供全面微調、LoRA、嵌入等多種訓練方法,讓用戶可以根據自己的需求選擇合適的訓練方式1。
    • 蒙版訓練:允許訓練專注於樣本的特定部分,並支援圖像增強,如旋轉、亮度、對比度或飽和度的隨機變換,以快速創建更多樣化的數據集1。
    • 此外,OneTrainer 還集成了 Tensorboard 來追踪訓練進度,支援每個圖像樣本的多重提示訓練,並提供自動備份、模型工具和數據集工具,以及在訓練期間不切換應用程序即可對模型進行取樣的取樣 UI。OneTrainer 的設計旨在為用戶提供一個簡單、高效且功能豐富的訓練環境1。這些特色使得 OneTrainer 成為一個非常適合需要在不同模型上進行高性能訓練的用戶的選擇。無論是專業的數據科學家還是對機器學習和深度學習感興趣的學生和教育工作者,OneTrainer 都能提供一個強大且直觀的工作環境。1

各種Package的適用顯卡

  • cpu:可以在只有 CPU 的系統上運行,不需要 GPU 加速。
  • nvidia:支援並優化 NVIDIA 的 GPU,通常會使用 CUDA 進行加速。
  • directML:支援 intel ARC 系列的顯卡,使用 Microsoft 的 DirectML技術,這是一種在 Windows 平台上使用 DirectX 12 進行機器學習推理的 API。
  • AMD(Linux):指的是套件支援 AMD 的顯卡,或是 Linux 系統下的 AMD 驅動。
  • macos:表示套件可以在 macOS 操作系統上安裝和運行。

使用介面說明

  • 可挑選任一Package 啟動來繪製圖片

  • Package 啟動的上方有三個選項
    • 當更新變成一朵雲,表示有更新可下載
    • 設定齒輪,設定使用CPU/GPU/VRAM大小等選項,有時候無法啟動要確認一下裡面的選項
    • 拼圖外掛,可預先安裝外掛,例如 中文功能表zh-tw、或是 all-in-one 的 Prompt WebUI 介面
  • Interface 是內建的生圖的介面,使用前必須下載至少一個Chechpoint (模型) 並裝好 ComfyUI 介面才能順利使用
  • Checkpoint 會顯示已安裝的繪圖模型
  • Model Browser 會顯示線上所有有的繪圖模型,並提供下載按鍵,有些模型下載需要提供網站的金鑰,請直接在模型網站上登入後,在帳號下方即可找到金鑰產生處,產生金鑰無需繳費,將金鑰貼入設定中的網站連接處即可繼續下載模型。
  • Output Browser 產生的圖片會放置於此處。
  • workflows 以工作流方式處理圖片,可創建設置自己處理圖片的方式。
  • 下載 可看見下載的進度並控制暫停或繼續
  • setting 環境相關設定


安裝錯誤或不可預期問題發生時 

先清除所有下載,開啟power shell 使用  pip cache purge 清除後重新再安裝

沒有留言:

張貼留言