關注“電源先生”,解析開關電源
在DeepSeek爆火的2025年,作為BUCK拓撲深入研究者、內容創作者、知識分享者,“電源先生”自然少不了每日使用AI來輔助優化文章。但是,我在使用AI的過程中,發現它真的會編造一些數據,以前只是聽別人說它可能會編造數據。
我的看法是:就像《阿凡達》中納美人馴服斑溪獸,我們要比AI更厲害,才能更好地馴服AI,否則在學習的過程中如果不加分辨地完全相信AI給出的回答,可能會被誤導。
1
AI 編造數據的常見情形
AI自我造假有多種形式和表現。一是給出的參考文獻、作者、文章標題、時間、年代等不符合實際,可以統稱為形式造假或非內容造假;二是對生成的內容進行胡編亂造。對前一類問題,有研究統計過,偽造率在30%-90%之間,而對內容的偽造尚未有準確統計,但是比例不會少。
典型的例子是,2023年6月,美國律師史蒂文·施瓦茨接受委托,為一名搭乘哥倫比亞航空公司飛機的乘客辯護,后者因一個金屬餐盤砸傷腿而索賠。施瓦茨使用ChatGPT搜索,在法庭上引用了6個并不存在的法律案例。后來被法庭指出后,施瓦茨承認是ChatGPT杜撰了一切,并向法官道歉,被罰5000美元。
[以上兩段內容,引自“澎湃新聞”]
我遇到的例子是:我使用Kimi優化“BUCK功率參數合集(19):深度解析MOSFET體二極管反向恢復損耗”這篇文章,它給出的暴論開頭是:
“在電源設計領域,有一個被多數工程師忽視的“隱藏殺手”。你是否知道,看似微不足道的體二極管反向恢復損耗,竟可能使電源效率瞬間暴跌 10% ?這違背了多數人對損耗來源的常規認知,認為主要損耗源自 MOSFET 導通電阻,實則不然。”
開關電源再怎么離譜,體二極管反向恢復損耗也不至于會導致轉換效率暴跌10%吧…前面也說了微不足道...
2
為何 AI 會胡編亂造
● 訓練數據局限 :AI 的知識來源于海量訓練數據,但這些數據可能存在過時、不準確或覆蓋不全的情況。
● 理解與推理偏差 :盡管 AI 在自然語言處理上表現出色,但對于復雜的開關電源技術概念和問題語境,仍可能理解有誤。
● 缺乏“事實校驗”機制 :AI 缺乏像人類工程師那樣在實驗室或實際工程中驗證理論的環境與能力。它只能依據已有知識模式生成回答,而無法對所給技術方案和數據進行真實實踐檢驗,容易出現與實際脫節的編造內容。
3
防止 AI 胡編亂造的策略
(1) 提問精準化
● 明確背景信息 :在向 AI 提問時,詳盡提供開關電源的類型(如反激式、正激式等)、應用場景(消費電子、工業設備等)、輸入輸出要求、已選用的關鍵元器件等背景。這樣能幫助 AI 理解問題具體語境,縮小知識搜索范圍,降低編造概率。例如,咨詢電源散熱問題時,提及功率器件的封裝形式、工作環境溫度范圍等細節。
● 聚焦問題核心 :將復雜的技術問題拆解,直擊關鍵要點。如探討電源的軟啟動電路設計,直接詢問軟啟動時間如何精確控制在特定區間,而非泛泛問軟啟動相關事宜,讓 AI 能精準調用相關知識,避免因問題模糊而胡亂作答。
(2) 答案交叉驗證
● 多源比對 :針對 AI 給出的關鍵技術數據和方案,參考權威教材、知名元器件廠商技術手冊、行業標準規范(如電源設計相關的 IEC、GB 標準等)。
● 專家咨詢 :積極參與開關電源技術論壇、專業社群,或是向資深工程師請教。當 AI 給出復雜的磁性元件設計參數時,將這些數據分享給有經驗的工程師,聽取他們的實際見解,判斷 AI 答案是否靠譜。
(3) 知識更新與自我提升
● 持續學習新知識 :當掌握足夠前沿知識,就能敏銳察覺 AI 回答中陳舊或編造內容。
● 建立個人知識庫 :整理過往成功電源設計案例、技術難題解決方案、實驗測試數據等資料,形成自己的知識體系。
4
小結
AI 助力技術知識傳播大有裨益,但其編造數據的缺陷不容小覷。我們需保持警惕,通過精準提問、嚴謹驗證、自我提升等多舉措并行,方能讓 AI 成為可靠的輔助工具。“工欲善其事,必先利其器”,AI 的能力很強,但它需要更強的你來駕馭。
道高一尺,魔高一丈。如果 AI 是“道”的話,那我們就需要做那個“魔”。