電子產(chǎn)業(yè)一站式賦能平臺

PCB聯(lián)盟網(wǎng)

搜索
查看: 58|回復: 0
收起左側(cè)

CCAI 2024預告丨政產(chǎn)學研攜手探索人工智能安全與治理

[復制鏈接]
跳轉(zhuǎn)到指定樓層
樓主
匿名  發(fā)表于 2024-12-4 07:31:00 回帖獎勵 |倒序瀏覽 |閱讀模式
CCAI 2024

12月13-15日,2024中國人工智能大會暨北京人工智能產(chǎn)業(yè)峰會將在北京召開。專題論壇之一的“人工智能安全與治理”將邀請來自北京郵電大學、西安交通大學、中國信息通信研究院、中國科學技術(shù)大學、中山大學、中國科學院自動化研究所、西安電子科技大學、北京大學、中國電信集團公司等政產(chǎn)學研嘉賓分享學術(shù)報告,交流人工智能安全與治理方面的思考和探索。



人工智能的安全與治理是智能社會和諧美好、行穩(wěn)致遠的基石,這一點已是全球共識,社會各界也在全力探索科學且可行的方案。

從制度層面來看,在各行各業(yè)智能化過程中,人工智能技術(shù)的快速迭代與治理體系的滯后性是當前面臨的主要矛盾。技術(shù)的日新月異使得監(jiān)管難以跟上其步伐,信息不對稱問題尤為突出,構(gòu)建一套既能保障AI技術(shù)健康發(fā)展,又能有效防范風險的治理體系,成為當務之急。

從人的角度而言,道德倫理是AI治理的重要維度。首先是開發(fā)者的道德倫理水準提升,從智能系統(tǒng)的設計和開發(fā)之初就要遵守道德標準,確保其在敏感領(lǐng)域的應用不會損害公共利益。其次是技術(shù)和工具的使用者必須自我規(guī)范和約束,須合法合規(guī)的使用智能工具,不要讓技術(shù)成為破壞性武器。

特別是在大模型時代,每一個行業(yè)、每一個人都有機會使用人工智能,從而帶來了更廣泛、更多樣、更復雜的安全治理挑戰(zhàn)。這種挑戰(zhàn)既存在于模型訓練工作中,也存在于模型使用過程中,比如數(shù)據(jù)污染、數(shù)據(jù)泄露、算法歧視、模型偏見、模型濫用等。因此,如何加強數(shù)據(jù)采集和清洗,采用安全有效的算法和技術(shù),提升模型魯棒性和可解釋性,成為解決AI大模型安全的關(guān)鍵課題。

構(gòu)建一套既能保障技術(shù)快速發(fā)展,又能有效防范風險的治理體系并非一日之功,也非一家之責,需要政府、企業(yè)、研究機構(gòu)和社會各界的共同努力,并綜合考慮技術(shù)、法律、倫理和社會等多個方面因素,這也正是本次舉辦的“人工智能安全與治理專題論壇”的意義所在。期待各界人士相聚專題論壇,攜手共謀共建安全可信的智能時代。




購票詳情




立即行動,團體優(yōu)惠等你來享!

本帖子中包含更多資源

您需要 登錄 才可以下載或查看,沒有賬號?立即注冊

x
回復

使用道具

發(fā)表回復

您需要登錄后才可以回帖 登錄 | 立即注冊

本版積分規(guī)則


聯(lián)系客服 關(guān)注微信 下載APP 返回頂部 返回列表