我曾試圖使其更易理解的問題

Lesswrong·

我整理了一系列致力於讓 AI 風險問題變得更「易於理解」的作品,涵蓋哲學問題、人類與 AI 安全以及策略挑戰,旨在為研究人員、決策者和公眾提供指引。這份清單彙整了需要進一步釐清的關鍵領域,以期能應對人工智慧帶來的潛在威脅。

回顧過去,我大部分的智力產出似乎都可以被描述為清晰化(legibilizing)的工作,即試圖讓我自己和他人更能理解 AI 風險中的某些問題。我將相關的文章和評論整理成以下列表,這也可以作為一份部分指南,指出哪些問題可能需要進一步清晰化——特別是針對 LW/理性主義者社群以外的對象,包括 AI 研究人員、資助者、公司領導者、政府決策者、他們的顧問(包括未來的 AI 顧問)以及一般大眾。

將這一切記錄在同一個地方後,很難不感到一絲絕望,覺得即使盡了最大的努力,也無法讓相關人員理解所有這些問題。或許希望的一個來源是,它們可以被未來的 AI 顧問所理解。由於這些問題中有許多本質上是哲學性的,這似乎又回到了我最近經常談論的 AI 哲學能力問題,而這個問題本身目前似乎在很大程度上仍是難以理解的,因此被忽視了。

或許值得以 @WillPetillo 與我在前一篇文章下方的討論中提到的一點作為總結:與其試圖讓難以理解的問題變得清晰,一種潛在更有影響力的方法是讓關鍵決策者意識到,可能存在著他們(甚至他們的顧問)無法理解的重要安全問題,因此僅根據清晰可見的安全問題現狀來做出極具影響力的決策(例如關於 AI 開發或部署的決策)是非常冒險的。

Lesswrong

相關文章

  1. AI對齊與哲學能力之間的衝突

    4 個月前

  2. 打造具備類人哲學思辨能力的人工智慧

    3 個月前

  3. 可辨識與不可辨識的AI安全問題

    6 個月前

  4. 提醒:道德問題仍未解決

    6 個月前

  5. 對齊美德

    2 個月前