报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
筑牢个人信息保护司法防线******
□ 林楠特
大数据时代,信息技术的快速发展在给人们生活带来便利的同时,也出现了非法收集、滥用、买卖、泄露个人信息等问题,尤其是侵犯公民个人信息犯罪日趋高发,给公民个人信息保护带来不小挑战。近日,最高人民法院发布第35批共4件指导性案例,均为公民个人信息保护刑事案例,涉及人脸识别信息、居民身份证信息、微信等社交媒体账号、手机验证码等刑法保护的公民个人信息范围、性质。
个人信息保护事关人民群众安全感。近年来,我国不断从立法、执法、司法等多环节发力,为个人信息安全织密防护网。刑法特别规定了侵犯公民个人信息罪,为严惩伸向公民个人信息的黑手提供了有力武器。最高人民法院、最高人民检察院专门出台相关司法解释,对侵犯公民个人信息犯罪的定罪量刑标准和有关法律适用问题作了较为全面、系统的规定。
当前,非法获取的公民个人信息已不仅仅包括身份信息、电话号码、家庭地址等,还扩展到手机通讯录、短信、网络账号及密码、购物记录、出行记录等,而法律本身具有原则性、概括性和滞后性特征。面对侵犯公民个人信息种类多样化,如何认定相关行为的性质、如何准确定罪量刑,既关系到法律的正确适用,也关系到公平正义的实现,更考验着司法机关的智慧。
此次最高人民法院发布指导性案例,明确类案裁判规则,具有较强现实意义和指导意义,如认定了人脸信息属于刑法规定的公民个人信息、居民身份证信息整体均系敏感信息;将提供服务过程中获得的验证码及对应手机号码出售给他人,情节严重的,依照侵犯公民个人信息罪定罪处罚等等。这些指导案例,既是司法机关保护公民个人信息的真实写照,也是生动的普法教材。
个人信息保护是广大人民群众最关心最直接最现实的利益问题。期待司法机关进一步发挥职能作用,持续加大对相关违法犯罪打击力度,加强执法司法协作,更好顺应形势、用活法律,有力维护人民群众个人信息安全以及财产、人身权益,让人民群众在数字社会中的权利得到充分尊重、实现与保护。
(文图:赵筱尘 巫邓炎)