<track id="xfjx9"><progress id="xfjx9"><pre id="xfjx9"></pre></progress></track>
<big id="xfjx9"></big>

            <track id="xfjx9"></track>

                    歡迎登錄上海司涌軟件技術公司
                    • 行業新聞
                    • 軟件開發
                    • APP開發
                    • 小程序開發
                    • 公眾號開發
                    • 知識產權
                    • 互聯網+
                    • 行業動態
                    • 郵箱:759891288@qq.com

                    脫離算法面臨“兩難抉擇”專家建議開展場景化精細化治理

                    來源:互聯網 編輯:上海司涌軟件技術公司 瀏覽量:544 次 時間:2021-04-28


                    算法基于人的行為而產生“鎖定效應”。雖然立法也賦予了用戶拒絕個性化推薦的權利,但對許多用戶而言,完全拒絕算法追蹤,可能會影響平臺內其他功能的使用。因此,還需對算法進行場景化和精細化治理。

                    “大數據殺熟”升級、個性化推送固化思維……前不久,上海市消費者權益保護委員會透露,隨著人工智能等新技術的應用,算法快速更迭,再加上平臺對消費者個人信息的全方位收集,算法“殺熟”方式升級,轉向基于被平臺充分掌握個人信息的“殺熟”,比如平臺會根據消費者使用的手機型號等個人信息匹配相關的產品、廣告或不同的優惠券。

                    面對越來越多的算法套路、越來越精準的營銷和個性化推送,用戶能否徹底拒絕或者脫離算法?又該如何對算法進行規制?近日,專家學者接受民主與法制社記者采訪時,從技術和立法層面對這些問題進行了剖析。

                    算法技術會固化、放大偏見

                    上海大學法學院大數據與人工智能法治研究中心執行主任陳吉棟表示,狹義上的算法可以視為純粹的技術,但隨著人工智能技術及大數據的發展,它被應用于更多領域。廣義上的算法是一種以構建社會秩序等目標而設定的一系列步驟。

                    “我們常說的人工智能從某種意義上講,就是一種能學習、判斷和決策的算法。”陳吉棟說,算法是一種人機交互場景下決策的新形態,在算法技術下,人類可以通過代碼設置、數據運算與機器自動化判斷進行決策。這個過程人機共同參與,既有人的決策也有機器的自動化決斷。

                    既然如此,算法歧視到底是人為還是機器所為?對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣說,這應從算法技術架構原理說起。

                    “導致算法歧視的原因很多,有模型設計原因,有數據本身存在歧視的問題。”張欣說,算法本身是一項純粹的技術,但如今算法技術深度嵌入平臺經濟,依據不同場景運行,有些是完全自動化決策,有些需要人為干預,但最終產生的算法結果是批量、大規模、系統性的決策,這可能會使傳統世界中存在的偏見和歧視問題被系統性放大。

                    陳吉棟也表示,運用算法技術進行決策可能會固化和放大偏見。這是由于算法數據采集于人類,其不可避免地在數據中會摻雜人的情感認知偏見。這些數據輸入終端后使得算法在模型更新迭代過程中讓偏見因素進一步固化,加深偏見和歧視,例如求職類App對應聘者進行篩選時可能包含一些性別和地域偏好。

                    這種基于人為偏見而導致的算法模型在多個場景深度嵌入后,會出現用戶在多個場景中被屢次歧視的“鎖定效應”。張欣舉例稱,如果某個用戶不恰當地被打上了“信譽低”的數據標簽,通過數據標簽的共享,就可能產生歧視“鎖定效應”。如用戶在免押租金使用共享單車的場景下因為“信譽低”被拒絕,轉而發現在保險費率核定、銀行貸款等更多場景下,也會遇到類似情形。

                    陳吉棟說,因為算法機器學習和自身的復雜性,加之部分商業平臺算法的商業秘密特征,使得大多數人無法理解算法的工作原理,由此導致算法使用者處于事實上的支配地位。

                    法律賦予用戶拒絕個性化推薦的權利

                    除算法歧視問題外,近年來,個性化推薦、精準營銷等引發公眾對個人信息安全的擔憂。同時,算法在用戶畫像越來越精準的同時,也讓人們擔心同質化內容會固化甚至引發人的思維退化,會阻礙人們通過網絡獲取多元化的信息。

                    陳吉棟說,算法的精準推薦使得個人信息自主選擇受限,加劇“信息繭房”現象。網絡的開放性給予了人們更多的信息選擇機會,借助算法可以為人們量身打造符合自身喜好App內容,但也使用戶陷于自身編織的“信息繭房”之中。

                    陳吉棟表示,目前,算法可能引發的法律風險在于其基于社會因素對個人進行分類、排序和決策,主要包括搜索結果競價排序、精準廣告營銷、個性化推薦、保險或貸款評定、信用評級、圖像識別和數據畫像等活動場景。

                    張欣說,實際上,我國立法賦予了用戶拒絕個性化推薦的權利,例如《中華人民共和國電子商務法》第十八條明確規定,電子商務經營者根據消費者的興趣愛好、消費習慣等特征向其提供商品或者服務搜索結果的,應當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權益。

                    陳吉棟表示,電子商務法第十八條規定了網絡平臺算法個性化推薦結果的消費者保護義務,并明確平臺的推薦算法搜索結果應提供非個性化推薦的一般結果,即不針對消費者個人的普通搜索結果。但此條規定的立法目的不是限制定向提供搜索結果的行為和定向結果推送,僅對其加以限制。

                    此外,我國民法典、網絡安全法、消費者權益保護法都從個人信息和數據處理的層面對算法進行了間接規制。比如網絡安全法第四章“網絡信息安全”中,對網絡運營者收集、使用個人信息進行了詳細的規定和嚴格的限制。其中,該法第四十一條規定,網絡運營者收集、使用個人信息,應當遵循合法、正當、必要的原則,公開收集、使用規則,明示收集、使用信息的目的、方式和范圍,并經被收集者同意。網絡運營者不得收集與其提供的服務無關的個人信息,不得違反法律、行政法規的規定和雙方的約定收集、使用個人信息,并應當依照法律、行政法規的規定與用戶約定處理其保存的個人信息。同時該法第四十三條賦予了公民發現網絡運營者違規使用個人信息時對其信息進行刪除或更正的權利。

                    基于此,陳吉棟認為,App應設置用戶拒絕接收精準營銷等選項,為用戶提供選擇退出項。

                    應開展場景化和精細化治理

                    用戶能否徹底拒絕“算法”?張欣說,正在制定中的《數據安全管理辦法(征求意見稿)》試圖解決該問題。

                    《數據安全管理辦法(征求意見稿)》第二十三條規定,“網絡運營者利用用戶數據和算法推送新聞信息、商業廣告等,應當以明顯方式標明‘定推’字樣,為用戶提供停止接收定向推送信息的功能;用戶選擇停止接收定向推送信息時,應當停止推送,并刪除已經收集的設備識別碼等用戶數據和個人信息。”

                    張欣分析稱,該規定可以在技術上保證用戶拒絕個性化精準推薦的權利。“每一臺移動設備中都有一個設備識別碼,設備識別碼一旦從算法系統中刪除,那么系統再也不能追蹤這臺設備的數據,也就不能再對用戶進行畫像,進而推送精準營銷廣告和個性化推薦內容。”

                    但張欣認為,對許多用戶而言,完全拒絕算法的追蹤在生活中是不現實的。因為如果采用刪除設備識別碼的方法拒絕算法推薦,可能會影響用戶平臺內其他功能的使用,比如難以獲得具有針對性的評分高的美食店鋪的推薦信息。同時,互聯網平臺負有許多法律上的責任和義務,一旦刪除設備識別碼,平臺難以通過識別設備對設備上的賬號進行風險控制。

                    如何解決上述矛盾?有觀點認為,應當通過算法公開、提高算法的透明度,來對算法進行規制。對此,陳吉棟表示,技術層面的算法公開是算法應用者公布算法運算數據和編程源代碼,算法公開也能夠在一定程度上促進算法治理。

                    算法公開的目的是抹平消費者和平臺方之間力量對比關系的失衡,通過公開達到可治理和可規制,通過對算法的可接觸反向驗證算法是否存在妨害。但由于技術鴻溝的存在,這樣的公開對普通用戶而言并無意義。陳吉棟說,礙于算法和機器學習技術的復雜性,算法公開能實現的效果可能有限。因此,對算法進行治理,還需要更廣泛的配套制度,如算法認證、算法查驗等。

                    張欣也表示,目前,算法公開還涉及商業秘密和知識產權保護問題,如何公開、公開到何種程度需要進行合理規制。目前,國際上比較成熟的算法治理方式是對算法開展影響評估,通過成立專門的監管機構或者評估工作組,對算法在個人隱私權、公平權、平等權及社會經濟等多方面可能產生的影響進行系統評估。

                    陳吉棟說,這在《中華人民共和國個人信息保護法(草案)》(以下簡稱《草案》)中也有體現,包括事前的算法影響評估、事中的算法審計和事后的算法決策要求說明及拒絕制度。

                    張欣表示,目前《草案》規定,算法影響的評估只要求對用戶個人進行評估,且規定評估的依據是“法律法規”,但法律可能存在滯后性,應當引入算法倫理規范一并作為評估依據,并開展多方面的評估。

                    張欣說,實踐中對算法公開或者算法透明的呼吁主要集中在公共事業領域。“目前,我國立法對算法規制主要集中在電商領域,但實踐中,許多領域都已經使用了算法技術,包括行政領域。一旦公共領域的算法適用出現問題,可能會對公民權利造成不利影響。因此,應制定科學合理的規制議程,按照風險等級,優先對公共事業領域的算法進行規制。

                    張欣建議,對算法進行場景化和精細化治理,立法機關應在起草涉及不同場景的法律法規時,具有系統化、場景化的算法規制意識。