华乐网
当前位置: 首页 >头条 >科技 >正文

网络时代, 人们强调保护隐私, 同时又热衷记录和传播隐私

2020-10-19 04:40    

“算法代替法律”的前景已经出现在不少科技人工的视野里,但目前为止,法律依然是调节人类社会关系的主要手段。我们需要考虑,人工智能时代的法治会遭遇什么挑战,应该如何应对。

人工智能不仅仅是技术问题,而是整个社会运作方式改变的问题。《少数派报告》这样的电影已经遇见了事前的预防性管理会出现。深度学习技术的最大作用在于预测,这也给以往法律思维带来新的启迪。比如法律将从事后补偿模式向事先预防模式变化。不过这个过程非常不确定。

以算法的复杂性来说,技术界区分了强人工智能和弱人工智能。有学者认为,人工智能在技术认知上没有问题,但在法律上很难按照智能程度给出精确地标准。因为法律应对复杂世界的方式是确立一般性的简单规则,在概念上对社会个体进行抽象假设,而非针对特殊主体,否则规则体系本身将变得异常复杂,难于理解和操作。生产资料之间的信息变得越来越对称,但作为信息匹配中介的人工智能却变得更不透明,其规则设计和运作从属于用户甚至开发者都无法理解的秘密状态,这都回到了法律如何处理与代码的关系问题。

具体体现法律抽象化与技术黑箱化之间的冲突。比如"快播案”这样一个涉及互联网技术而非人工智能技术的案件里,法律责任认定的过程很漫长也很艰难。监管或者法院并不想深入算法内部了解造成事故的技术原因是什么。只要法律认定这一黑箱应当在合理范围内得到控制,事故就可以避免,黑箱提供者就应当承担责任。在这种情况下,我们可以预见,保险就成为那些事故发生概率小但潜在损失巨大的市场的不二选择。

设计技术的航空、医疗保险市场已经十分发达,可以预见保险将会延伸至更多由人工智能驱动的服务行业。

在另一方面,也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法制管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。例如,征信系统中禁止收集种族、性别、宗教派别、政治倾向等歧视性信息;在声誉系统中打击网络推手刷单,避免虚假数据;通过地域性监管限制网络专车级司机的资质等。法律机器人本身也是一种辅助人类面对复杂规则作出判断的好办法--用技术进步解决技术带来的问题。

有人说,智能时代,人们进入了无隐私社会,因为一切数据都处在互动中,哪怕是心率都被可穿戴设备分享了。未来的狗仔也会智能化,运用数据分析和无处不在的视觉监控寻找明星的蛛丝马迹,在智能社会如何善待隐私?可能要突破原先的观念。隐私当然是现在个人人格的一部分。现实中,人们强调保护隐私的同时,也热衷记录隐私,甚至传播隐私。一切网络八卦行为都围绕隐私展开。没有隐私就没有独立个体,但在数据时代,绝对的隐私又会让个人无法被沟通和识别。最好的办法还是制度与技术手段的突破,比如建立统一的数据保护平台,让个人可以了解自己的数据会被政府、公司使用的状况,避免单向过度的使用。

品牌、内容合作请点这里: 寻求合作 ››

榜单

今日推荐