AI 會一本正經胡說八道,人又何嘗不是如此?

前言

Ku's Blog
Jun 1, 2024

最近,AI 產品如雨後春筍般湧現,我們也逐漸習慣使用 AI 來輔助工作和生活。然而,當初我們是如何察覺 AI 會胡說八道的呢?因為它所胡說的內容通常是基本的,網上一搜尋就能發現與其說法完全相反的結果,所以我們知道 AI 在胡說。

那人類呢?我們如何判斷一個人是否在胡說?在資訊爆炸的時代,我們可以輕易獲取大量資訊,但如何確認這些資訊的正確性?我們往往習慣聽從專家學者的分析和結論,但如何確定他們說的不是胡說八道呢?

人們的言論通常基於個人的經驗、學習和認知,AI 亦是如此。

第一性原理

第一性原理指的是,回歸事物最基本的條件,將其拆分成各要素進行解構分析,從而找到實現目標最優路徑的方法。

伊隆·馬斯克在製造火箭時曾說,除了物理的原則外,其他製造火箭的守則與規則都要一一驗證是否符合事實。同樣,「格物致知」也說明了相同的道理,我們需要理解事物的原則和法則。

最早出自於《禮記·大學》:「古之欲明明德於天下者,先治其國。欲治其國者,先齊其家;欲齊其家者,先修其身;欲修其身者,先正其心。」

我們要如何看透事物的本質呢?

如今股市和房市一片看好,台灣的股市專家建議買股票,台灣的房市專家則建議買房。

但這幾天,我又看到一個影片提到美國租屋率不斷提高,越來越多美國人選擇租房子而非買房子。這樣的現象是否意味著一定的趨勢?他們會提供理由和分析,支持他們的建議。然而,這些理由和分析是否絕對正確呢?在美國房市的情況是否能套用在台灣?

無論是伊隆·馬斯克,還是游庭皓,甚至是股癌等人,他們都提到了類似的觀念。

  1. 伊隆·馬斯克的第一性原理
  2. 游庭皓提到格物致知
  3. 股癌的『灰階思考』中提到要看第一手的資料

這些都告訴我們,要從事物的源頭去看,去分析,去思考,才能夠找出正確的合理的觀點。

未來我們怎麼知道 AI 在胡說八道?

現在 GPT 已經出到 GPT-4o,他的強大所有人應該都感受到了,未來 GPT-5、GPT-6 的出現也很有可能的。

像許多人一樣,我在 2022 年 12 月才知道 GPT-3,2023 年 3 月開始訂閱 GPT-Plus,不知不覺已經過了一年。

然而,GPT 已經快要出到 GPT-5。雖然 GPT-5 可能不會這麼快推出,但 AI 的進步速度超乎想像。當 AI 的智力超越一般人,並且擁有高超的說謊技巧時,我們如何分辨 AI 是否在胡說呢?

當 AI 能夠說出與專家學者相似的言論時,我們根本無法辨別其真偽。因為人類的時間有限,不可能精通每一項技術,但 AI 可以。因此,當 AI 說出我們不熟悉的技術或是領域時,我們很容易被其誤導。

結論

在資訊爆炸的時代,我們很難分辨資訊的正確性。因此,我們不應該輕易相信和接受這些資訊,而應保持懷疑態度,當遇到矛盾的說法時,我們應該驗證,閱讀相關書籍,提升我們的系統性思維。

無論資訊的正確性如何,只要經過我們的親自驗證,符合我們自身的情況,就是真實的。
然而,我們也要保持不斷學習,因為符合當下情況的資訊可能並非永久有效。我們需要在過程中逐漸理解事物的本質,才能真正做到融會貫通,不被 AI 和龐大的資訊海洋所淹沒。

--

--

Ku's Blog
Ku's Blog

Written by Ku's Blog

人生沒有確切的目的,而我們只是在人生的過程中尋找存在的意義。

No responses yet