图片视频都能造假 AI深度伪造是怎么回事?

来源: 猫眼娱乐
2024-06-12 10:42:14

日本大豆行情MBA智库百科寮の連中は直子から電話がかかってきたりc日曜の朝に出かけたりするとcいつも僕を冷やかした。まあ当然といえば当然のことだがc僕に恋人ができたものとみんな思いこんでいたのだ。説明のしようもないしcする必要もないのでc僕はそのままにしておいた。夕方に戻ってくると必ず誰かがどんな体位でやったかとか彼女のあそこはどんな具合だったかとか下着は何色だったかとかcそういう下らない質問をしc僕はそのたびにいい加減に答えておいた。  调查组查明,2004年初,精诚矿业承包人金富军开始涉足代县铁矿开采行业。2006年至2018年期间,金富军先后承包代县多个铁矿开采业务,通过分包矿洞、投资入股、找活干、包食宿、给钱花等手段,先后将老乡和部分当地人笼络在身边,主要通过承包矿山交易、强迫交易、开设赌场等手段攫取钱财,形成了以其为首的黑社会性质组织,共涉及故意伤害、敲诈勒索、寻衅滋事、强迫交易、故意毁坏财物、开设赌场、非法存储爆炸物和不报、谎报安全事故8项罪名17起犯罪事实。其中,2014年9月13日,代县双羊铁矿二采区发生山体滑塌,金富军工队4名矿工被困后死亡。在组织救援期间,金富军等人向事故救援组隐瞒亡人事故真相,虚假报告只有一名矿工死亡,并私下与4名遇难矿工家属达成赔偿协议。2019年6月,金富军等人因涉嫌不报、谎报安全事故罪,被忻州市公安机关依法逮捕。2020年6月,金富军被忻州市公安机关以组织领导参加黑社会性质组织案立案侦查;2021年12月,被忻州市忻府区法院一审判决有期徒刑22年,剥夺政治权利5年,并处没收个人全部财产。2022年5月,忻州市中级法院终审维持原判。2ts0T-DjqcbLwx8URVmePK1La-图片视频都能造假 AI深度伪造是怎么回事?

  AI发展快,系紧“安全带”(“融”观中国)

  ——“人工智能 与信息保护”系列报道之二

  AI“换脸”实施诈骗、AI伪造图片传播谣言、AI“复活”逝者引发争议……随着人工智能技术的不断发展,AI深度伪造的例子屡见不鲜。不少网民惊呼,以前总说“有图有真相”,如今我们连图片和视频也不敢轻易相信了。

  “眼见不一定为实”

  关于AI深度伪造的热点事件,正引发全世界广泛关注。

  今年1月,美国一位流行歌手被人用AI恶意生成虚假照片,在社交媒体迅速传播,给歌手本人造成困扰。2月,香港一家公司遭遇“AI变脸”诈骗,损失高达2亿元港币。据悉,这家公司一名员工在视频会议中被首席财务官要求转账。然而,会议中的这位“领导”和其他员工,实际都是深度伪造的AI影像。诈骗者通过公开渠道获取的资料,合成了首席财务官的形象和声音,并制作出多人参与视频会议的虚假场景。

  基于深度合成技术引发的侵权案例,常见的手法是冒充熟人实施电信诈骗。不久前,江苏句容的杨女士,在收到自己“女儿”多条要求缴纳报名费的语音后,向骗子账户转账3.5万元。相关办案民警反复提醒:“遇到转账一定要慎之又慎,眼见不一定为实。”

  “深度伪造技术利用AI深度学习功能,实现图像、声音、视频的篡改、伪造和自动生成,产生以假乱真的效果。”上海人工智能研究院院长宋海涛给公众应对深度伪造支了三招:一是掌握甄别AI“换脸”的简单技巧,比如要求对方在视频对话时在脸前挥挥手,看是否出现图像扰动等;二是学会使用检测深度伪造的工具和软件;三是保持合理怀疑。“保持谨慎和警惕,是公众应对AI造假的第一道防线。”宋海涛说。

  “用技术治理技术”

  如何把生成式AI的强大能力用于建立信息安全规范,将制约行业发展的“绊脚石”变为“压舱石”?业界一直在探索“用技术治理技术”的方案。

  瑞莱智慧是清华大学人工智能研究院孵化的企业,专攻人工智能安全领域。瑞莱智慧总裁田天介绍,其公司研发的生成式人工智能内容检测平台,支持多种合成类型的图片、视频、音频、文本的真伪检测,应用场景包括打击网络诈骗和声誉侵害行为、检测网络内容合规性、检测音视频物证真实性等。

  “利用AI技术治理AI犯罪,本身也是一个不断博弈的过程。”田天介绍,“红队测试”是目前生成式AI治理的重要手段,旨在通过模拟攻击者行为,对目标系统进行全面网络攻击,针对性地发现、修补潜在系统漏洞,使模型在面向公众开放前,充分接受安全技术检验。视频合成AI平台Sora,在上市前就曾邀请数名从事信息安全漏洞研究的专家充当红队进行对抗测试,找出相当数量的安全漏洞。

  此外,业界也在推动落实AI生成内容标识制度。中国政法大学数据法治研究院教授张凌寒表示,全国信息安全标准化技术委员会在《网络安全标准实践指南——生成式人工智能服务内容标识方法》中给出了内容标识方法:通过在交互界面中添加半透明文字的方式显示水印标识,或通过人类无法直接感知但可通过技术手段从内容中提取的隐式水印标识,提示内容由人工智能生成。“标识制度可以提升AI信息内容治理能力,减少虚假信息生成,防止虚假信息污染下一代训练数据,营造良好的网络信息生态环境。”张凌寒说。

  国际测试委员会创始人、中国科学院计算所研究员詹剑锋建议,应将AI深度伪造纳入监测机制,遇到负面影响较大的造假行为,第一时间快速反应。通过建立针对深度伪造有害内容的群众举报机制,提高公众的判断力、鉴别力。

  “制度引导技术向善”

  生成式AI技术是一把双刃剑,如何在释放创新活力的同时,有效防范信息安全风险?

  不少专家表示,尽快建立健全相关治理规范至关重要。“这一领域的治理不能完全寄希望于企业自治,更需要法律硬性监管。”对外经济贸易大学数字经济与法律创新研究中心主任张欣表示,“通过立法为AI开发划定基本底线,明确合规义务,可以从源头防范风险,避免‘先污染后治理’的被动局面。”

  去年国家网信办等部门发布的《生成式人工智能服务管理暂行办法》标志着生成式AI有了专门性行政法规。2023年1月施行的《互联网信息服务深度合成管理规定》明确提出,“任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息”“可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识”,等等。

  在法律层面,中国已经出台了《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律,但针对AI领域的司法治理仍有进一步细化的空间。“现有法律法规对数据权属、保护范围等问题暂无具体规定。在人工智能生成结果的保护方面,《民法典》的原则性条款在具体适用方面还有一定难度。”北京互联网法院综合审判三庭负责人颜君建议,要进一步加快人工智能方面的法律供给,推动国家层面生成式人工智能规范的确立。对已有案例出现的疑难法律问题,要通过学术讨论和司法实践,逐步形成共识,总结确立法律适用规则,推动《人工智能法草案》的立法进程。

  在伦理层面,AI“复活”等行为引起部分用户的反感和恐惧。对此,科技部等10部门印发《科技伦理审查办法(试行)》,列出了需要开展伦理审查复核的科技活动清单,其中就包括具有社会动员能力和社会意识引导能力的算法模型、应用程序及系统研发等。

  “我们要正确看待新业态带来的可能性,但也不能让其偏离合法性、合理性轨道。无论是技术开发者、使用者还是监管者,都有必要用类似的伦理视角来审视技术发展。在追求科技进步的同时,确保AI技术循着以人为本和技术向善的理念发展。”张凌寒说。(人民日报海外版)

  20日,在福冈游泳世锦赛男子单人3米板决赛夺冠后,王宗源对自己的发挥并不满意。走上领奖台,他没有表现出太多兴奋。当转播镜头对准自己时,他才将金牌举在面前,笑着向观众致意。

  据商务部消息,今后要办好进博会、广交会、服贸会等一系列重要展会,支持企业境外参展营销,推动加快签证办理和国际航线复航增班。

  此外,合作的快递公司价格亦时常波动。“我们发货的网点,要是完不成他们的任务,运费就好商量,你说啥就是啥,他们一旦完成了任务,价格就高了。”张明霞告诉《中国新闻周刊》。

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
用户反馈 合作

Copyright © 2023 Sohu All Rights Reserved

搜狐公司 版权所有