当前位置:主页 > 包养美女 > 正文

涉黄、涉诈……“AI换脸”这门生意到底“刑不刑”?

07-23 包养美女

  1.当下,“AI换脸”技术已经被一些不法分子盯上,一旦成为色情、诈骗犯罪的工具,就很有“判头”。

  2.有些生意看似“没那么刑”,但若未经被“换脸”自然人授权,实际也涉嫌侵权,可能承担道歉、赔偿等民事责任,比如“AI复活”。

  3.日常生活中,建议别下载注册来源不明的软件,定期清理手机里的个人信息,保护好您的“脸面”。

  内蒙古包头警方通报的一起利用AI实施诈骗的案件中,张三通过AI换脸和拟声技术,佯装熟人实施诈骗,导致一受害者10分钟内被骗430万元。

  山东警方公布的案例中,李四搜集他人个人信息,通过AI技术制作成“不雅视频”,精准发送给受害者,并以举报、散播、告知家属等方式要挟受害者“花钱消灾”。

  浙江检察机关不久前披露的一起案件中,王五在网上收集他人提供的女明星或普通女性的生活照,通过AI技术“定制”淫秽视频和图片,甚至同时出售相关制作软件及使用教程。

  仅在这三个案子中,这些不法分子就可能涉及诈骗罪、敲诈勒索罪、传播淫秽物品牟利罪和侵犯公民个人信息罪等罪名。

  其实,一些看似安全的行为背后也有法律风险。比如前不久,有商家用AI“复活”了李玟、高以翔等去世明星,无论是否以营利为目的,相关行为都已涉嫌侵权。根据民法典有关规定,这些技术的使用者可能面临停止侵害、消除影响、赔偿损失等民事责任。

  随着深度合成、深度伪造等技术的快速发展,“换脸”“拟声”效果愈发逼真,但使用门槛却越来越低。此时此刻,这些教程、软件就在互联网上被悄悄兜售,买卖双方都可能“心怀鬼胎”——这也客观上导致AI技术加速向侵权、诈骗、色情等领域渗透。

  这些年,我国陆续出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等多项法规和政策,逐步明确了深度合成服务提供者、内容生产者和个人信息处理者等主体的责任义务和相关处罚措施。

  更进一步的“AI法”也已经在路上。5月6日,国务院办公厅印发《国务院2024年度立法工作计划》,其中透露预备提请全国人大常委会审议人工智能法草案。

  对此,执法监督部门正在加强对图像、声音伪造技术的反制研究,用魔法打败魔法。

  比如,我国公安机关就联合国家重点实验室等单位,开展了人脸识别与活体检测技术安全测评,范围覆盖了通讯、直播、社交、电商等多类APP。

  在网上冲浪时,要保护好自己的“脸面”,比如不下载注册来源不明的软件,定期清理手机里的个人信息等。

  (声明:“法治中原”微信公众号刊载此文,是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请及时与我们联系,我们将及时更正或删除。)

版权保护: 本文由 主页 原创,转载请保留链接: http://www.foxireyan.comhttp://www.foxireyan.com/a/3413.html