toplogo
登入

利用大型語言模型對永續社區進行 ISO 37101 標準評估的映射


核心概念
大型語言模型 (LLM) 可用於自動化和標準化城市永續發展措施的評估,並可以根據 ISO 37101 標準,有效地將城市措施分類到不同的永續發展標準中。
摘要

文章類型

這篇文章是一篇研究論文,介紹了一種利用大型語言模型評估城市永續發展措施的新方法。

研究目標

  • 開發並測試一種使用大型語言模型,根據 ISO 37101 標準自動分類和評估城市永續發展措施的方法。
  • 探索這種方法在打破城市規劃壁壘方面的潛力,並制定更全面、跨部門的永續發展戰略。
  • 調查此方法在不同城市環境和數據源中的可用性、可擴展性和適應性。

方法

  • 選擇 gpt-3.5-turbo 作為主要的大型語言模型。
  • 開發一個自定義提示,總結 ISO 37101 標準的精髓,包括六項永續發展目標和十二個議題的簡要定義,以及評估項目對每個目標-議題交叉點的貢獻的指南。
  • 使用 Python 編寫處理代碼,並使用標準文本挖掘工具提取和清理文本。
  • 將項目描述與自定義提示一起輸入大型語言模型,並使用 OpenAI 的「函數調用」功能接收與 6x12 框架相對應的結構化數據。
  • 對項目結果進行彙總,以識別模式和趨勢。
  • 以 Excel 格式創建可視化和報告。

主要發現

  • 大型語言模型可以有效地根據 ISO 37101 標準對永續發展措施進行標準化評估。
  • 與傳統的人工評估方法相比,基於大型語言模型的方法可以節省大量時間,並提高評估的一致性。
  • 該方法可以幫助打破城市發展項目中的壁壘,並促進更全面、跨部門的永續發展戰略。
  • 該方法有可能應用於更大的城市系統和城市網絡,並可以通過針對特定環境進行微調來進一步改進。

研究意義

這項研究強調了大型語言模型在標準化永續發展評估任務中的潛力,並為城市規劃者、政策制定者和永續發展專業人士提供了新的見解和工具。

局限性和未來研究方向

  • 需要進一步研究以評估該方法在不同文化環境中的適用性。
  • 未來的工作應側重於開發特定地區的提示,以納入當地的永續發展優先事項和術語。
  • 應探索將大型語言模型與其他數據源和分析方法相結合的可能性,以提高評估的準確性和全面性。
edit_icon

客製化摘要

edit_icon

使用 AI 重寫

edit_icon

產生引用格式

translate_icon

翻譯原文

visual_icon

產生心智圖

visit_icon

前往原文

統計資料
全球超過 55% 的人口居住在城市地區,預計到 2050 年這一數字將上升到 68%。 巴黎參與式預算的年度預算為 1 億歐元。 對 26 項措施的初步審查樣本(177 個數據點)顯示,80.1% 的數據點沒有被審查員更改。
引述
「這些模型在理解和生成各種領域的人類文本方面表現出非凡的能力。」 「大型語言模型彌合了城市措施的定性描述與標準化映射之間的差距的潛力。」 「與傳統的基於規則或基於統計的自然語言處理 (NLP) 方法不同,大型語言模型利用深度學習架構(通常基於變換器模型)來捕獲複雜的語言模式和語義關係。」

深入探究

在評估城市永續發展措施的影響時,如何將社會公平的考慮因素納入基於大型語言模型的方法中?

在基於大型語言模型 (LLM) 的城市永續發展措施影響評估中,納入社會公平的考慮因素至關重要,可以透過以下幾種方法實現: 數據收集和標註: 確保訓練 LLM 的數據集包含與社會公平相關的指標和資訊,例如不同社會群體(按收入、種族、性別、年齡等劃分)的居住區域分佈、公共服務設施的可及性、社會福利資源分配等。 在數據標註過程中,明確考慮社會公平因素,例如,標註一個項目是否對弱勢群體產生積極影響,或是否加劇了現有的社會不平等。 模型訓練和微調: 在 LLM 的訓練過程中,可以引入額外的損失函數或正則化項,以懲罰模型在評估過程中對不同社會群體產生偏見的結果。 使用特定領域的數據對 LLM 進行微調,例如,使用包含社會公平指標的城市規劃案例數據集,可以提高模型在評估社會公平影響方面的準確性和敏感度。 結果解釋和應用: 在使用 LLM 評估結果時,應結合社會公平的視角進行解讀,避免過於依賴模型的單一指標,而忽略對不同社會群體的差異化影響。 將 LLM 評估結果作為決策參考的一部分,並結合其他社會公平評估方法和公民參與機制,以確保決策的全面性和公正性。 總之,將社會公平納入基於 LLM 的城市永續發展評估需要在數據、模型和應用等多個環節進行系統性的考慮和設計,才能更有效地促進城市的可持續和包容性發展。

如果沒有大量數據可供訓練大型語言模型,那麼在數據稀缺的環境中,如何確保此類評估方法的準確性和可靠性?

在數據稀缺的情況下,確保基於 LLM 的評估方法準確可靠,可以採取以下策略: 小樣本學習(Few-shot Learning): 利用 LLM 在少量樣本上學習的能力,使用精心設計的提示(Prompt)和少量標註數據,引導模型理解評估目標和標準。 採用遷移學習(Transfer Learning)技術,將預先訓練好的 LLM 模型遷移到數據稀缺的領域,並使用少量數據進行微調,以適應特定任務需求。 結合專家知識和規則: 將 LLM 與基於規則的系統相結合,利用專家知識和經驗建立評估規則,彌補數據不足的缺陷。 採用混合方法,將 LLM 的語義理解能力與傳統統計模型的數據分析能力相結合,提高評估的準確性和可靠性。 數據增強(Data Augmentation): 利用現有數據進行擴充,例如,通過同義詞替換、語句改寫等方式生成新的訓練數據,增加數據的多樣性和規模。 探索跨語言遷移學習,利用其他語言的相關數據集,通過機器翻譯等技術擴充訓練數據。 主動學習(Active Learning): 在數據標註過程中,優先選擇對模型訓練最有價值的樣本進行標註,提高數據效率。 利用 LLM 識別潛在的錯誤或不確定性高的樣本,並交由專家進行標註,不斷迭代優化模型。 模型簡化和壓縮: 選擇參數量較小的 LLM 模型,或採用模型壓縮技術,降低模型對數據量的需求,同時保持一定的性能。 探索輕量級的 LLM 架構,例如,使用知識蒸餾(Knowledge Distillation)技術,將大型 LLM 的知識遷移到小型模型中。 總之,數據稀缺環境下,需要結合多種技術手段和策略,才能有效提升基於 LLM 的評估方法的準確性和可靠性。

城市規劃中越來越多地使用人工智能會如何影響公民參與和民主決策過程?

人工智能 (AI) 在城市規劃中的應用日益增長,這對公民參與和民主決策過程既帶來了機遇,也帶來了挑戰: 潛在的積極影響: 提高參與效率和便利性: AI 工具可以簡化信息收集和分析過程,使公民更容易了解規劃方案、表達意見和參與決策。例如,基於 LLM 的聊天機器人可以回答公民關於規劃方案的問題,收集反饋意見。 促進信息透明和公開: AI 可以幫助政府更好地收集、整理和公開城市規劃相關數據,提高決策過程的透明度,讓公民更容易監督和參與。 促進更具包容性的參與: AI 可以幫助克服傳統參與方式的障礙,例如時間、地點和語言的限制,讓更多人,包括弱勢群體,更容易參與到規劃過程中。 支持更數據驅動的決策: AI 可以分析大量的數據,包括公民意見、城市指標和環境數據,幫助決策者制定更科學、更符合民意的規劃方案。 潛在的挑戰和风险: 加劇數字鴻溝: 并非所有公民都能平等地獲取和使用 AI 技術,這可能加劇現有的數字鴻溝,導致部分群體被排除在決策過程之外。 算法偏見和公平性問題: 如果訓練 AI 模型的數據存在偏見,可能會導致不公平的規劃方案,例如,忽視某些群體的需求。 隱私和數據安全問題: 收集和使用公民數據需要遵守隱私和數據安全法規,避免數據洩露和濫用。 公民對 AI 的信任和接受度: 公民需要理解 AI 如何應用於規劃過程,並信任 AI 系統的可靠性和公平性,才能積極參與。 過度依賴 AI 削弱公民參與: 決策者應避免過度依賴 AI,將其作為輔助工具,而不是替代公民參與和民主決策。 應對策略: 確保 AI 技術的公平性和可及性: 政府應採取措施,縮小數字鴻溝,讓所有公民都能平等地獲取和使用 AI 技術參與規劃。 解決算法偏見和公平性問題: 開發和使用 AI 模型時,應關注算法的公平性和透明度,避免產生歧視性結果。 保護公民隱私和數據安全: 建立健全的數據治理機制,確保公民數據的隱私和安全。 加強公民教育和參與: 提高公民對 AI 的認識和理解,鼓勵公民參與 AI 倫理和治理的討論。 將 AI 與傳統參與方式相結合: AI 應作為傳統參與方式的補充,而不是替代,確保公民在規劃過程中的核心作用。 總之,AI 在城市規劃中的應用對公民參與和民主決策既是機遇也是挑戰。 為了充分利用 AI 的優勢,同時應對潛在風險,需要政府、科技公司、公民社會等多方共同努力,確保 AI 技術的發展和應用符合倫理原則,促進城市的可持續和包容性發展。
0
star