2025年10月20日 星期一

中國風宗教畫作比較 ChatGPT>Gemini>>>Grok,QwenImage則是...太血腥且非常震撼

 AI繪圖在這個部分顯然ChatGPT>Gemini>>>Grok

雲端繪圖雖然都受限於政策 很多時候不能生圖

ChatGPT生圖完美細節豐富完全符合中國風地獄景象

Gemini略遜 沒有古卷軸風味 

GroK顯然不太了解中國風格生圖不精準快又有甚麼用

而本地生圖

【佛家對造謠的看法】

佛家對造謠有嚴格分類,屬「口業四惡」之二:「妄語」與「兩舌」。

果報清楚載於《十惡業報經》與《地藏菩薩本願經》中。

妄語罪(說假話)

若以虛言欺人、惑眾,輕則「人不信己」,重則「墮拔舌地獄」。

《地藏經》載:妄語者死後墮地獄,拔舌千次萬次,鐵鉤鉗舌,烈火焚燒,受盡苦楚。此即「拔舌地獄」。

兩舌罪(挑撥離間)

若造謠挑撥,使人相恨相離,則墮「鐵蛇地獄」。

其中有毒蛇繞身,啃咬不休,象徵以言傷人,受報於身。

惡口罪(說話傷人)

常咒罵、辱人、以言加毒者,死後墮「火舌地獄」,火焰自口出入,象徵以火舌燒人,反自焚。

綺語罪(虛誇迷惑)

以花言巧語、散播虛妄者,受報為「聾啞之身」,再世口不能言。

【道家對造謠的看法】

道重「真」。一切自然之氣運在「誠」。

造謠者,以虛亂實,則氣亂、德損、命薄。

氣亂傷身:

妄語亂心,心亂則氣結。長久之後,氣血不調、病生於內。

《太上感應篇》有言:「是非以為善者,禍報隨之。」

意即亂說是非、顛倒黑白,終將自受其報。

德損運衰:

德者,道之基。造謠使人失德,天地記錄,陰司不赦。

人若口出虛言,天地神明減其福祿,命途漸困。

古人云:「言出傷人,反噬己德。」正是此意。

報應不爽:

道家不強調地獄刑具,但信「氣運循環」——

汝造虛語亂人,則人亦造虛語亂汝。

今世欺人心,來世受人欺;是謂「反報」。


以下三張都是ChatGPT畫出來的





教學是門藝術

 其實我常常在聽課的時候

會有很多與講師不同的想法

通常是因為

教學學員不同

教學目標不同

教學層次不同

(或是因為我太龜毛)

把這些東西挑明了講

確實對改變教師層次有所助益

但事實卻不是這樣

人性會築起保護牆抵禦一切疑似外來的攻擊

當你被視為敵人的時候

你的一切正確都會變成別人眼中的惡意攻擊

所以除非心胸開放感情極好極熟

否則就是無緣的不渡之人

因為你的善意都變成他心中的惡意

難怪人家說看破不說破

知無不言言無不盡的世局-從來沒有出現過

但要我說講得很棒 總說實話的我又做不到

高處不勝寒 還是看劇較實在

升仙之後都會離開塵世原來是這樣

但見人說人話見鬼說鬼話確實是高階講師的能力

因為你要調對學員的頻率

他們才會知道你要講甚麼

一次跳太多層次 就是沒有讀懂認知心理學

教學真的是門藝術

2025年9月16日 星期二

用Felo追劇~喜歡看修仙類的戲劇的朋友看過來

 修仙類戲劇介紹與觀看位置

直接點選連結:

https://felo.ai/zh-Hant/page/preview/6W2AUwGiCwjzSZfECYyr2h?business_type=AGENT_THREAD&invite=2mvaZRPEeDMXg

這是Felo幫我生成的網頁,因為他生成的網頁不支援內嵌,所以做了QRCODE讓各位掃描後跳轉,內頁還有查看html代碼功能,方便各位複製html檔案,放置於自己的網頁伺服器,以免Felo連結過期失效,Felo讓我看劇時更有深度,理解了中國古典道家文化經典


中國修仙思想的簡報
直接點選連結:https://felo.ai/slides/bE3TPwHWt7NNAiFLKak8oW?modelType=PRO&invite=2mvaZRPEeDMXg





2025年9月11日 星期四

Google認證之戰

Google認證之戰

當你的心中只有Google工具的時候你就輸了
當你覺得只有廠商認證才是好老師時你就輸了
當你只聽台灣官方說法只有台灣官方認證算數你就輸了
當你為團隊遭受的不公平要去爭取團隊的權益你也輸了

一開始你就輸了
輸在是你自己選擇要玩遊戲的
輸在不知道世界很大,或是忘了有其他的選擇
輸在不懂人性,不明白商業操作,或是不願讓利共好
輸在層次有待提升,總以為自己最好不服氣人家
或是不滿意別人的操作,卻又改變不了規則的無奈

看破江湖不玩的最大
人為什麼要被廠商認證?難道你覺得透過捷安特的認證才能駕馭腳踏車成為一個優秀的騎手?難道腳踏車只能當交通工具?難道去目的地只能搭腳踏車?難道認證一個好騎手只有這種途徑?

商業本質就是利益
當官就是謀權,商人就是牟利,人性也一直沒變
懂的就共好,不懂的就雞飛狗跳一地雞毛

不是投票贏了就是對的,不是這樣的喔

看破成長才是各位的關鍵
想要融入世俗就要懂江湖規矩,沒道理只讓自己偉大別人不能活,想要脫俗就要有被當異類的心理準備
長官或世俗只看得懂煙火,簡單就配合放給他看,要更好就花點精神搞個更符合教育意義的
當你決定玩人家的遊戲,就得跟著人家的規則,入局時勝負就已經定案,除非你能量夠大大到可以改變規則
看懂塵世若要在世道中生存,就要隨波逐流,想要上檯面就要努力浮出水面,不想在塵世掙扎就要看破,脫離水中世界,站至高點默默看著一切,心情好就提醒一下誰誰誰前方有鯊魚,心情不好就閉嘴讓大家自行體驗人生,畢竟即使你好心提醒,也不一定就被認為是白天使,人家境界無法突破,你就會是黑天使

人生會有很多崁
不是認真付出就能得到對應的回報,不是優秀就甚麼都對
助你認清世界的運作,助你認清人性的規律,這就是是道
大道無情,運行日月,大道無名,長養萬物
如果你破關了,就會晉升到下一關,這一關的怪不會再出現
下一關會有更大的BOSS等著你,一關一關的過這就是人生

看破的人就會知道怎麼選擇怎麼看待人生
想體驗豐富的人生就挑艱難的走
看破不玩就不會被人家玩直接關機過自己想要的人生

期望各位開悟覺醒
看了覺得難受的就是境界無法提升
沒關係我也不介意當你的黑天使
反正我無所謂

對別人多點寬容 人家也要生存
別總以為地球要繞著自己賺 將心比心大家互利才能欣欣向榮
願對了(利眾生的願)世界才會對了
有錢出錢有力出力有腦出策有情關懷
路走起來才會順

只要目標是對的,每一個人都盡自己的能力,世界就會很美好
這個世界本沒有輸贏,能付出的都有大愛
是我就會覺得很開心,至少我還有能力給予

"看破不說破"是個屁
比起獨善其身,我寧願選擇地獄不空誓不成佛
不過,有法難度無緣人

2025年8月24日 星期日

114年AIGC向上提升最受歡迎的課程

https://felo.ai/slides/dDiUBE9YACcXnioeGbSnja?modelType=PRO&invite=2mvaZRPEeDMXg

https://felo.ai/page/preview/knkioo9k3BQBCyJgWXhDCF?business_type=AGENT_THREAD&invite=2mvaZRPEeDMXg

2025年8月15日 星期五

學習本地LLM最佳CP值顯卡採購指南

學習本地LLM最佳CP值顯卡採購指南

https://felo.ai/zh-Hant/slides/huvzUwrGMFUABTDzzbzfDK?modelType=PRO&invite=2mvaZRPEeDMXg


https://felo.ai/page/preview/fj9zse6Ez7UUp3dc6yscBW?business_type=AGENT_THREAD&invite=2mvaZRPEeDMXg

2025年8月5日 星期二

Qwen3 or Gemma3 誰勝出?

先說結論

  • 要在公家單位或要看圖用唯一選擇Gemma3
  • 要在家自用選Qwen3

評測項目 說明
ArenaHard 綜合性難題問答評測,用來衡量模型在高難度任務下的推理能力。
AIME’24 / AIME’25 模擬數學競賽題目(AIME,American Invitational Mathematics Examination),用以測試模型之數學解題能力(AIME'25 更難)。
LiveCodeBench 實際編碼能力評估,評測模型生成程式碼後能否成功執行並通過測資。
CodeForces (Elo Rating) 模型在 Codeforces 類競程題目中的 Elo 等級分,數值愈高表示編程實力愈強。
GPQA Graduate-level Physics QA,測試物理知識與推理能力。
LiveBench 廣泛自然語言任務之基準測試集,涵蓋多種場景。
BFCL (v3) 場景推理能力(類似常識推理)測試。
MultiIF (8 Languages) 多語言邏輯推理能力(8種語言),測試跨語言的一致推理表現。

🧠 二、Qwen3 系列與 Gemma3 系列差異分析

模型名稱 架構特性 模型大小 效能分析
Qwen3-30B-A3B (MoE) 混合專家架構(Mixture of Experts)僅激活部分參與計算的子模型,效率高 30B參數 各項目表現均優異,尤其在 ArenaHard、AIME、LiveCodeBench、BFCL 領先群雄
Qwen3-4B (Dense) 緻密模型(Dense Model)全參數參與推理,推理速度穩定 4B參數(小模型) 在相同參數規模中表現良好,但遠遜於 Qwen3-30B-A3B
Gemma3-27B-IT Google 出品,強調**指令微調(Instruct-tuned)**能力 27B參數 對話能力佳,但數學、編碼與推理(如 AIME、LiveCode)明顯不及 Qwen3-30B

📊 三、性能比較示例(精選項目)

評測項目 Qwen3-30B-A3B Gemma3-27B-IT 優勢模型
AIME’24 80.4 32.6 Qwen3(數學壓倒性勝出)
LiveCodeBench 62.6 26.9 Qwen3
CodeForces 1974 1063 Qwen3
GPQA(物理) 65.8 42.4 Qwen3
LiveBench 74.3 49.2 Qwen3

從上述可知,Qwen3 系列推理、數學、編程、物理等硬核任務表現出色,尤其是 **MoE 架構(Qwen3-30B-A3B)**具有高效率與高精度之雙重優勢。


🧾 附註說明(來自圖表下方)

  1. AIME'24 / '25 的數據係取樣 64 次平均值,題目包含 30 題,顯示模型穩定性。

  2. 表中 Qwen3 模型未啟用 "think mode",若啟用可能更強。

  3. BFCL 評測中,Qwen3 採 FC 格式作答,其他模型則取最大得分模式。

以下為來自阿里巴巴官方 Blog「Qwen3: Think Deeper, Act Faster」的精要摘要:




🌟 Qwen3 重點總覽

  1. 完整開源模型系統
    Qwen3 系列模型皆於 2025 年 4 月發布,包含多款 Dense(緻密)與 MoE(Mixture‑of‑Experts,混合專家) 結構模型,從 0.6B 至 235B 規模皆可取得,全部採用 Apache 2.0 授權 (Qwen)。

  2. 智慧雙模式推理機制
    模型支援「思考模式」(for complex reasoning)與「非思考模式」(for fast chat),可依任務難度動態切換;並提供「思考預算」設定,以在效能與速度間取得最佳平衡 (arXiv)。

  3. 卓越推理與多語能力
    在數學、程式碼生成、常識推理等硬實力上,超越前代 Qwen2.5 與 QwQ 模型,在與 DeepSeek‑R1、Gemini‑2.5‑Pro 等競爭者的比拚中表現極佳 (Qwen)。

  4. 大規模與小型 MoE 模型

    • Qwen3‑235B‑A22B:總參數 235B,推理時啟動約 22B;

    • Qwen3‑30B‑A3B:總 30B,啟動約 3B。
      這兩款 MoE 模型相較 dense 模型在效率與計算成本方面具明顯優勢 (Qwen, arXiv)。

  5. 多語言與全球覆蓋
    預訓練包含 36 兆 token,涵蓋 119 種語言與方言,支援跨語言理解與生成,提升全球應用性 (維基百科)。

  6. 可微調、代理與嵌入擴展
    最近推出基於 Qwen3 的 Qwen3‑Coder(專精於 agentic coding 與高 context 長度支援)、Qwen3‑Embedding/Reranker(用於文本表徵與搜尋排序)等系列,均延續核心模型優勢 (Qwen)。


🧭 概括要點(條列)

  • 完整開源,Apache 2.0 授權,促進研究與社群應用。

  • 混合推理架構:具思考與非思考模式、自主思考預算調控。

  • 效能領先:在程式、數學、推理任務上表現超群。

  • MoE 結構雙雄:235B 與 30B 模型兼顧性能與成本效益。

  • 語言支援全面:訓練涵蓋超過 100 種語言 / 方言。

  • 生態延伸豐富:Coder、Embedding 系列提升實作與工具整合能力。




🌟 Gemma 3 重點總覽

  1. 開源輕量模型,適用單卡運行
    Gemma 3 系列由 DeepMind 推出,為輕量開源模型,可於單張 GPU/TPU 上執行,適用筆電、桌機甚至手機(blog.google)。

  2. 多種模型規模
    提供 1B、4B、12B、27B 四種參數規模,皆有預訓練(pre‑trained)與指令微調(instruct‑tuned,簡稱 IT)版本(Hugging Face)。

  3. 支援多語與長文理解能力
    除 1B 外,其餘模型支持 140+ 種語言 的多語處理,且擁有 128K tokens 超長上下文視窗(1B 版為 32K)(Hugging Face)。

  4. 具備多模態理解能力
    除 1B 外皆可處理 圖像與文本輸入,整合定制的 SigLIP 視覺編碼器,將影像壓縮為固定 256 向量編碼,並採用 Pan & Scan 技術處理不同解析度與比例(Google 開發者部落格)。

  5. 記憶體優化與混合注意力架構
    採用 local/global attention 混合架構,具備每 5 層 local attention(跨度 1024 tokens)緊接一層 global attention,以避免 KV-cache 隨長上下文劇增(Google Cloud Storage)。

  6. 卓越性能表現
    在 LMArena Chatbot Arena Elo 評分中,Gemma 3‑27B‑IT 表現與 Gemini‑1.5‑Pro 相當,並優於 DeepSeek‑V3、Llama3‑405B 等同類型模型(blog.google)。
    透過知識蒸餾與指令微調流程,如 RLHF、RLMF、RLEF 等提升數學、推理、程式與聊天能力(Google 開發者部落格)。

  7. 完善開發者生態支援
    模型與文檔整合 Hugging Face、Ollama、Gemma.cpp、JAX、PyTorch 等平台,可透過 Google GenAI API、Vertex AI、Cloud Run、本地部署等方式使用;提供 ShieldGemma 2(4B)圖像安全分類模型作為配套模型(blog.google)。


📄 概覽重點條列

  • 常見參數尺寸:1B / 4B / 12B / 27B

  • 超長上下文能力:最高至 128K tokens

  • 多模態支援:除了 1B,均支援圖文輸入

  • 多語能力強大:涵蓋 140+ 語言

  • 混合注意力架構:local/global 混合設計

  • 指令微調模型(IT)具備高性能,部分版本性能堪比 Gemini 系列

  • 廣泛工具與平台整合,包括安全模型 ShieldGemma 2