按关键词阅读: 巴基斯坦 tiktok 解封
“Facebook所描绘的元宇宙不仅不代表人类的未来,还将导致人类文明走向没落。”11月20日央视播出的最新一期《对话》栏目上,在谈及元宇宙话题时,三六零(601360.SH,下称“360”)公司董事长、创始人周鸿祎直言不讳的表达了质疑。他与中国工程院院士王坚、清华大学苏世民书院院长薛澜、世界工程组织联合会主席龚克一道,就数字化安全、算法背后的数字伦理、元宇宙等话题展开热烈讨论,为观众奉献了一场精彩的思想盛宴。
文章插图
节目中,周鸿祎一如既往的观点犀利,他认为,保护用户隐私的责任应该由收集用户数据的公司承担。当前人工智能被过度夸大了,很多时候人工智能不如叫“人工智障”,如推荐算法的局限性造成了信息茧房,自动驾驶技术也很不成熟,重要的决策还是应该交由人来做。
数字化安全挑战巨大 技术的问题需要靠技术解决 “进入数字时代,整个社会构筑于数字技术之上,你不觉得人类社会变得前所未有的脆弱吗?”,周鸿祎对于数字化安全表达了深深地担忧,他表示,网络攻击已经可以让一座城市大面积停电,今年美国发生的油管攻击事件,令东海岸汽油供给出现问题,以致全美进入紧急状态。现在,各个中国的数字化建设正在如火如荼的进行,必须将安全前置,不能等建设完成之后再考虑安全,这可能导致数字化业务遭受重大挫折,甚至带来灾难。
文章插图
作为中国互联网最早的的建设者之一,周鸿祎始终保持着对数字化技术发展的敏锐洞察,尤其警惕技术发展所带来的安全挑战。他认为,在技术快速发展之下,信息安全已经从最初的计算机安全、网络安全,演进为数字化安全,网络威胁超越传统安全威胁,成为数字时代最大的威胁,直接影响国家安全、国防安全、经济安全、社会安全、城市安全乃至人身安全。
节目中,周鸿祎始终强调,技术的两面性是客观存在的,不能因噎废食,技术的问题必须用技术的方法来解决。当前,隐私泄露是与每个人息息相关的数字化安全课题,对此周鸿祎直言,人类进入数字文明时代,数字化技术深刻的改变了人类的工作和生活方式,只要使用数字化服务,就不可避免的要让渡一部分数据,这是不可逆转的。
龚克对周鸿祎的观点表示赞同,他表示,“不要把个人隐私过度夸大,这个社会一定会走向越来越开放,几百年前的隐私现在可能已经不再是隐私,今天的隐私以后也不见得永远都是隐私“。对于如何教会人们保护隐私,周鸿祎认为,不要指望把老百姓培养成安全专家,安全是反人性的,老百姓只需要享受数字化技术的便利即可。
周鸿祎反复强调保护用户隐私的责任应该由收集用户数据的公司来承担。薛澜认可周鸿祎的观点,表示收集数据的一方不仅要保障数据的安全,关键是保证数据不被滥用。周鸿祎在节目中提示,国家已经意识到个人数据安全的问题,今年以来密集发布《个人信息保护法》、《数据安全法》等法规,从政策角度规范数据的采集与使用。
中国抢占产业互联网先机 元宇宙让人类文明走向没落欧洲不仅通过了全球最严格的个人信息保护法《通用数据保护条例》(简称“GDPR”),还于10月在议会通过决议,禁止在公共场合采集人脸数据,Facebook也将于11月关闭人脸识别系统,并删除超过10亿人的面部数据。对此,周鸿祎认为,中国的政策更加宽容,更加支持创新,西方保守的思维,将落后于时代的发展,让中国在产业互联网的竞争中抢得先机,届时谁拥有更多的大数据,就拥有更多的生产要素,占据产业互联网的变革的制高点,当城市和产业实现完全的数字化,才是大数据真正的未来。
关于数据的重要性,周鸿祎以智能网联汽车举例,如果没有大数据,不可能实现自动驾驶。节目中,自动驾驶是嘉宾热议的焦点之一,以人工智能技术为基础的自动驾驶技术,在解放人类双手的同时,也带来了数字伦理的挑战,核心在于是否应该让机器代替人做决策。“人工智能可以作为辅助决策给人类建议,重大的决策还是应该交给人。”周鸿祎认为,人工智能被过度的夸大了,目前为止不能太过迷信人工智能。
另一个热议的焦点同样与人工智能相关,那就是人工智能推荐算法所造成的“信息茧房”,周鸿祎的观点是,现在的人工智能有的时候不如说叫“人工智障”,推荐算法的局限性造成了信息茧房。然而人类不该妖魔化技术,极端的远离推荐算法,而是应该用技术的手段,赋以科技向善的理念,在政府的监管之下,改善算法。在鼓励技术创新的同时,他认为应该给用户知情权和选择权,即告诉用户算法做了什么,并给对安全敏感的用户关闭的权利。
稿源:(雷锋网)
【傻大方】网址:/c/1121a02062021.html
标题:周鸿祎|周鸿祎参加央视《对话》谈数字化安全:不考虑安全的数字建设将酿成灾难