全讯网-全讯网.www.7897899

信息網絡中心聯合校內多部門召開人工智能應用規劃研討會

  • 2025年03月24日
  • 信息網絡中心
關注西法大官網
微信
微博
Qzone
網址
打印
閱讀

3月21日,信息網絡中心聯合黨委宣傳部、學工部、教務處、財務處、保衛處、后勤保障處等六個部門,召開人工智能應用規劃研討會,針對人工智能大模型在校園場景的應用需求進行了可行性調研與論證。 

校方特邀火山引擎、博達科技、東孚的行業專家,現場解析大模型在教育領域的落地案例,并就校方需求提出建設性方案。會上,各部門結合職能定位,從教學創新、管理效能、服務優化等維度探討大模型的應用潛力,重點圍繞技術可行性、實施路徑等關鍵議題展開深入研討。 

本次會議通過跨部門協同論證,為人工智能大模型在我校的場景化應用奠定了實施基礎,將有效推進校園智能化建設進程,助力教學質量、科研產出及行政管理效能的全面提升。 

(供稿:信息網絡中心 撰稿:趙珂 審核:賈暄)

相關新聞

  • 楊建軍:可信人工智能發展與法律制度的構建

    以可信為基礎構建人工智能治理法律制度的必要性 人工智能技術發展突飛猛進,在諸多領域取得了令人矚目的成就。但是,人工智能的發展,卻因為技術的復雜性、風險的不完全確定性、技術濫用、法律規制的缺位等因素,還未完全贏得社會的信任。 (一)人工智能發展中還存在侵蝕其可信性的諸多因素 其一,人工智能技術發展還存在諸多可知或不可知的風險。當前,人工智能存在著失控性風險、社會性風險、侵權性風險、歧視性風險、責任性風險五個方面的倫理安全風險。其二,人工智能技術還不完全可信。(1)人工智能技術還未真正達到人們想象的發達程度,總體上還處于專用人工智能而不是通用人工智能發展階段。(2)深偽技術加劇了人們對真實性瓦解的擔憂。(3)技術安全等問題未完全解決。(4)與人工智能技術關聯的問題是,人工智能的良好運行高度依賴個人信息和數據,而個人信息和數據管控本身還存在諸多問題,如App違反合法、正當、必要的原則收集與所提供服務無關的個人信息,“強制授權、過度索權、超范圍收集個人信息”大量存在。其三,人工智能應用不當導致了侵權,致使人工智能不完全可信。其四,人工智能治理的技術使用還存在與其宣示的價值取向不一致的情形,損害了人工智能發展的價值基礎。其五,規制人工智能的法律還不可信。 (二)人工智能法為什么要強調信任 信任,是人際關系得以長久維系的橋梁,是社會關系得以拓展的基礎,是社會發展的內在條件,更是建立高效社會組織的基本前提。信任是社會合作得以進行的基礎。信任成功與否取決于信任拓展范圍的大小。人工智能技術的發展程度,不僅是由技術決定的,而且是由規制人工智能的倫理、法律等規范決定的。那些真正發展得良好的技術,必定也是法律保障有力、遵循了良好倫理規范的技術。 人工智能獲得社會信任的法律基礎 (一)人工智能的信任需要法律來保障 其一,傳統社會基于血緣等關系構建了人際信任,人與人之間的信任多建立在熟人關系基礎上。其二,到近現代社會,法律力圖建構的是一種打破血緣關系、促進陌生人合作的普遍信任機制。現代社會共同體合作,主要建立在平等交換、契約自由基礎上。其三,人工智能時代的信任須建立在人工智能技術安全、確定性的法律管控和社會倫理引領的基礎上。 (二)捍衛現代法治的傳統和公民的基本權利系確保人工智能可信的關鍵 人們對人工智能技術的信賴,建立在人工智能技術的安全性、保障和規制人工智能的法律制度的正當性、規制人工智能發展的制度的價值正義性、人工智能技術的實踐運作對人類基本價值追求和人的基本權利維護的有效性的基礎上。在支撐人工智能信任的技術維度、法律維度、倫理維度和實踐維度中,最為關鍵的是為人工智能發展設定法律監管標準。 可信人工智能法律構建的倫理基礎與可信特征 包括我國在內的許多國家均將“可信”作為人工智能的核心倫理原則,而“正當性”則是保障人工智能可信法律構建的基礎。 (一)正當性是保障人工智能可信法律構建的倫理基礎 全球關于人工智能治理可信問題的關注最初是在倫理文件中表達的。雖然存在一些爭議,但是國際社會在“可信賴的人工智能”“負責任的人工智能”等核心理念上可能會達成一致。可信被很多國家人工智能倫理確認為了一項基本倫理原則,這一原則的提出,是為了解決人工智能的價值對齊問題,即確保人工智能的目標與人類的目標一致,使其“行為和決定符合人類的價值、目標、道德考量”。但是,單純從倫理準則角度構建人工智能的可信存在諸多問題:(1)全球關于人工智能治理存在諸多爭議,不同準則之間的沖突日益凸顯,如“普惠發展與隱私保護”“安全可靠與非歧視要求的沖突”等;既有準則規范可能由私人部門提出,實際上是抵制政府監管的借口等。(2)作為倫理準則的可信標準,主要是一種倡導性、自律性準則,缺乏有效的監督執行機制,強制性程度不足;準則的表達多采概括性概念,可操作性不強。因而,國家立法所要做的工作就是,將倫理準則轉化為法律準則,并通過更加具體的技術規則和法律規則設計,保障可信準則在人工智能產品或服務的研究、開發、設計、部署、使用、監管等具體環節得到落實。 (二)現行可信人工智能的評估標準 何積豐院士提出,人工智能的可信特征包括四個方面:(1)魯棒性,即對未知情況具備一定的應對能力;(2)自我反省,即對自身性能或錯誤能夠有所感知;(3)自適應,即能夠成為通用的系統,能被應用到新的環境;(4)公平性,如應防止被不當力量訓練為種族歧視的智能。有學者提出了可信人工智能系統的質量框架,包括:(1)尊重人類自治原則,含人權代理與監督。這是最為重要的原則,人工智能應當賦予人類新的權利而不是取代人類,且處于人類控制之下,不對人類基本權利或健康造成損害。(2)傷害預防原則,包括魯棒性、穩定性、安全性(包括保密性、完整性、可用性)、可靠性、可問責性、隱私性、可重復性、準確性等。(3)可解釋性原則,包括透明性、可解釋性。(4)公平性原則,即確保群體或者個體不受偏見或歧視。(5)一般軟件質量屬性,如兼容性、可維護性、功能適用性、可移植性、性能效率、易用性等。 可信人工智能發展對法律構建提出的要求 (一)保障可信人工智能發展的多元路徑與法律路徑 保障可信人工智能發展的路徑是多元的,大致包括四個方面。(1)側重行業技術保障的路徑。如中國信息通信研究院和京東探索研究院通過對全球范圍內已經發布的84份政策文件按照詞頻進行梳理發現,當前人工智能治理原則已經收斂在“透明性、安全性、公平性、可責、隱私保護等五個方面”,支撐可信的技術包括“穩定性技術、可解釋性技術、隱私保護技術、公平性技術、可視化技術”等。(2)技術認證的客觀標準與倫理價值評價的主觀標準結合的路徑。(3)人工智能的風險防控路徑。(4)法律、倫理、技術結合的路徑。2019年,歐盟人工智能高級別專家組發布了《可信人工智能的倫理指南》,提出人工智能在整個生命周期中需要滿足三個條件:合法性,即可信人工智能應當依法合規;道德性,即人工智能發展要符合道德原則、價值觀;穩健性,即人工智能發展應避免造成無意的損害或負面影響。這實際上提出了保障人工智能可信發展的綜合路徑。 為人工智能設定法律標準,實際上是為人工智能的研究者、開發者、部署者等設定最為基本的標準,并通過法律的強制執行性推動各項標準的落實,以防人工智能的發展偏離人類追求的價值目標,實現對人工智能產業發展的規制、引領作用。 (二)可信人工智能對法律提出的期待 可信是一種文化,一種基于技術發展而形成的人對人工智能的認知和信任狀態。為了保障人工智能的可信發展,法律制度的創設或者調整應當遵循一系列外在準則和內在準則。 1.可信人工智能法律構建應遵循的外在準則 外在準則構成了人工智能發展的國家社會目標,意在維護國家社會的福祉和法律的基本價值,是人工智能長遠發展的基本準則。外在準則主要是一種理念,它無法通過人工智能技術而直接得到落實,但它可以成為評判人工智能技術發展是否正當的元準則,是人工智能發展的總的引領性準則。 其一,以人為本,捍衛人的基本權利。人工智能立法堅持以人為本,就應當保護個人信息和數據等數據權利,保護人格權、人的自主決策(自治權)和人類的主體性,還應當重視對社會弱勢群體的權益保護。發展以人為本的人工智能,既應從技術發展的角度來設定制度,還應從人的基本權利的角度規制人工智能技術。以人為本還應當認真考量新產業發展對傳統產業帶來的沖擊,如人工智能發展對傳統產業領域的就業替代,就是一個需要高度關注的問題。以人為本的理念與憲法確定的人的基本權利之間具有密切的聯系。 其二,人類主導原則。人類主導原則是從人與機器關系的最終意義上說的。因為人工智能在很多方面代替人進行道德選擇和決策,但智能系統要為人類做決定,不能脫離人類倫理指導。當人工智能的決定不符合人類需要的時候,人類可以取代人工智能做出決定。人類主導原則還要求,人工智能的設定,還應當尊重國別文化的多元性、尊重個體差異,并采取措施防止“人類對機器人的過度依賴”。 其三,技術中立原則。技術中立原則是設計人工智能法律制度時應遵循的一項前置性原則。例如,如果在交通事故中對普通駕駛人按照過錯責任進行歸責,而對人工智能汽車采取嚴格責任原則予以歸責并要求車主承擔交通事故責任,那么就背離了技術中立原則,而適用過錯原則可能是妥當的。 2.可信人工智能法律制度構建的內在準則 內在準則主要是法律技術性準則,這些準則大多可通過人工智能的技術設計、改進而得以落實。內在準則構成了人工智能法律的操作性準則。 其一,透明原則。人工智能的透明,首先是為了保障公民的知情權,讓人們了解人工智能是如何運作的。透明原則是為了防止人工智能被運用于不法目的或不正當目的,有助于增強人的自主性,不透明的人工智能難以獲得人的信任。 其二,安全原則。首先應確保網絡安全、數據安全與算法安全。(1)可信意味著必須降低人工智能風險,采用“強制性標準”對風險進行管控,且風險管控措施應符合比例原則,不能向人工智能開發者提出過高的要求(歐盟人工智能法第64部分)。(2)對風險宜進行分類管控或是分級管控。如2024年歐盟發布的人工智能法案將人工智能的風險分為四級,采取不同的限制措施。中國的人工智能法(學者建議稿)則將人工智能分為關鍵領域與一般領域進行管控,對關鍵領域進行重點管控。 其三,公平原則。核心是,在人工智能的模型訓練中,排除那些明顯存在或者隱性存在文化偏見、性別歧視或種族歧視的數據集。 其四,隱私保護原則。隱私被侵犯,自然人的感知最為直接,顯然,一個無法保護隱私利益的人工智能,是無法被人們接受的。 其五,可問責原則。確保人工智能的部署、使用產生的法律責任是可問責的。問責是對侵權者的追責,也是對受害者的救濟。 保障人工智能可信發展的具體法律制度 (一)設計、評估與測試制度 其一,設計階段的價值對齊制度。(1)法律應當將價值對齊作為一項基本義務賦予人工智能設計者。(2)人工智能在開發階段就應注意防止偏見和歧視。首先,識別人工智能必須遵守的倫理價值和規范,其次,將這些規范通過程序編碼寫入人工智能系統,最后,為了驗證人工智能是否與特定價值和規范兼容,應當對人工智能的規范和價值的有效性進行評估。 其二,評估制度。人工智能開發者、提供者在開發、提供人工智能產品和服務前,可自行或委托第三方機構對數據質量、潛在偏見歧視、科技倫理審查情況、公共利益影響、保護措施等內容進行安全風險評估。 其三,人工智能的安全測試制度。(1)為了保證安全,應建立密碼技術管理制度,實現可信計算和可信驗證。(2)設立沙盒監管制度,強化安全測試和安全風險監管。(3)人工智能提供者對人工智能生成內容的標示制度。 (二)建立針對人工智能領域的監督制度 (1)采用“憲法性AI”的思路,用人工智能監督人工智能,用“一個從屬的AI模型評估主模型的輸出是否遵循了特定的‘憲法性’原則(即原則或規則清單),評估結果被用于優化主模型”。目的在于推進價值對齊,將對可信人工智能影響最大的法律原則,落實在人工智能發展技術中。雖然人工智能監督人工智能是高效的,但考慮到人工智能法律監督僅處在初期,故設置針對人工智能法律監督的人類標注員依然是必要的、重要的。(2)分級監督制度。針對人工智能決策,針對性地建立一級監督制度或二級監督制度。一級監督制度針對部分自動化決策,即把人工智能決策作為專業人員決策的支持理由,決策最終由人類來選擇;此等情形下,人工智能決策是人類決策的組成部分。二級監督針對的是完全自動化決策,即在人工智能作出決定后,人類對智能化作出的決策進行監督和糾正。總之,“一級監督在決策過程中具有構成性作用,而二級監督對一級監督進行檢查和控制”。(3)隱私保護監督制度。(4)權力制約監督制度。 (三)完善人工智能的責任制度 其一,人工智能的使用者為了安全、放心,當然期望人工智能的開發或銷售企業能夠承擔起全部責任。其二,在法律責任設定上,“應輔以問責框架,包括免責聲明以及審查和補救機制等,以確保在開發、部署和使用之前和之后對人工智能系統及其結果負責和問責”。其三,刑法應增設相關責任條款,將對非法訪問AI或從事黑客攻擊的嚴重行為、讓人工智能運行實行犯罪的使用惡意軟件的行為納入刑法調整范圍。 結語 可信人工智能治理進程中的法律制度的構建,應以技術路徑為基礎,融合倫理準則,溝通人工智能發展的外在準則和內在準則,捍衛現代法治傳統,保障憲法確認的公民的基本權利;同時,應當處理好人工智能發展中國際性與地方性、市場邏輯和治理邏輯、監管的包容與審慎、權力制約與權利保護、道義與理性等關系。

    2025-03-19
  • 我校在第二屆全國大學生職業規劃大賽陜西賽區決賽中創佳績

    近日,第二屆全國大學生職業規劃大賽陜西省賽決賽圓滿落幕,我校學子在此次比賽中表現卓越,斬獲4銀1銅的佳績。新聞傳播學院(藝術學院)馮馨儀和公安學院(公共安全法學院)朱金帝獲得就業賽道高教研究生組銀獎,國家安全學院(反恐怖主義法學院)沈楚楚和民商法學院王茜雨獲得就業賽道高教本科生組銀獎,新聞傳播學院(藝術學院)李星穎獲得成長賽道高教本科生組銅獎。 本次大賽以“筑夢青春志在四方,規劃啟航職引未來”為主題,分為就業賽道和成長賽道。大賽自2024年10月啟動以來,全省大學生積極參與,累計報名學生42.64萬人,我校3000余名學生報名參賽。招生就業處聯合各學院,精心策劃、認真籌備,經過院賽、校級復賽、校級決賽和省級復賽等環節層層選拔,最終我校5名學生入圍陜西省賽決賽。備賽期間,招生就業處精心組織,各有關學院密切配合,通過開展專題輔導、模擬比賽、經驗交流等環節,全方位助力學生備賽,有效提升了學生的職業規劃能力與參賽能力。 學校將圍繞 “以賽賦能、以賽提質、以賽拓崗”的理念,結合不同專業發展方向,開展多樣化的職業生涯規劃活動,增強學生對職業世界的認知與探索。同時持續聚焦賽事成果轉化,充分發揮大賽在拓展就業渠道、優化就業服務方面的作用,做深做實就業市場開拓工作,引導學生精準對接市場需求,積極適應就業環境變化,全力以赴助推畢業生實現高質量充分就業,不斷開創學校就業工作新局面。 (供稿:招生就業處 撰稿:薛倩 審核:孫靜)

    2025-03-11
  • 經濟法在民商事案件中的應用

    報告主題: 經濟法在民商事案件中的應用 報告人:薛克鵬,中國政法大學民商經濟法學院,教授,博士生導師。         中國經濟法學研究會常務理事、中國商業法研究會常務理事兼學術委員會主任、         北京經濟法研究會常務理事、中國地質礦產經濟學會礦產資源法分會副秘書長、         中國民主同盟中央法制委員會委員、第五屆北京市昌平區政協委員。 舉辦單位:經濟法學院 報告地點:雁塔校區3號教學樓3403 報告時間:2025年03月11日09:00至12:00

    2025-03-11
百家乐官网娱乐城赌场| 尊龙百家乐官网娱乐场开户注册| 百家乐官网网址多少| 百家乐官网闲庄概率| ea百家乐系统| 太阳城申博娱乐| 大发888出纳| 晴隆县| 金博士百家乐官网娱乐城| 娱网棋牌大厅| 百家乐官网统计| 易胜博百家乐娱乐城| 大发888pt| 那曲县| 全讯网3344555.com| 措勤县| 全讯网3344555.com| 电投百家乐网站| 新东泰百家乐官网的玩法技巧和规则| 百家乐评级网站| 百家博国际娱乐城| 24山分别指什么| 大发888注册网址| 在线百家乐官网娱乐| 喜力百家乐官网的玩法技巧和规则| 百家乐一般多大码| 百家乐庄闲局部失| 百家乐什么叫缆| 明升备用网站| 全景网百家乐官网的玩法技巧和规则| 百家乐必赢| 赌场百家乐官网玩法介绍| 澳门百家乐海星王娱乐城| 鑫鼎国际| 网上玩百家乐犯法| 脉动棋牌下载| 大发888真钱账户注册| 百家乐平注法到656| 三亚百家乐官网的玩法技巧和规则| 网上百家乐官网是假| 百家乐官网澳门有网站吗|