西藏地震期间“小孩被埋”等 AI 图大量传播,严重可追责
IT之家报道称,西藏定日县于1月7日发生了级地震,引起了众多网友的关注。流传在网络上的一张“小孩被埋图”引发了广泛讨论和转发。许多网友对此表示关切和祝福。然而,经查证,这张照片并非真实的地震画面,而是由人工智能工具合成的虚假图片。
据悉,这张照片源自一位自媒体作者于2024年11月18日发布的人工智能生成视频,作者在视频中明确注明了“由人工智能生成”。细心观察照片可以发现许多人工智能生成的痕迹,比如色彩、光线、动作看起来不自然,石块的移动也不合常理,甚至图片中的人物有六根手指。IT之家指出,原作者已经删除了这段视频。
央视新闻报道称,在这次地震期间,类似虚假图片、视频大量传播,呈现出建筑倒塌、流离失所的儿童、母亲在废墟中为孩子挡风遮雨等情景。西藏互联网举报中心、网信日喀则等部门已经辟谣,指出这些图片、视频要么是人工智能生成的,要么是拼接自旧图片或视频,呼吁公众不要轻信传播。
许多网友担心,这些虚假信息会误导那些对人工智能技术不了解的人,甚至可能被不法分子利用。法律专家指出,滥用人工智能技术生成关于地震灾情的虚假画面甚至散布谣言,与事实严重不符,引发社会广泛关注甚至恐慌,属于扰乱公共秩序的行为,将受到法律制裁。
另外,一些专家注意到,许多网络平台的人工智能生成图片、视频会在发布约1小时后才出现“可能由人工智能生成”的提示,这显示出平台审查存在迟缓等问题。
央视新闻还提供了识别人工智能图片的方法:
观察细节:许多人工智能生成的图片、视频中存在着人物表情僵硬、边缘模糊、光线阴影不自然、手指数量异常或者扭曲等现象。
查证来源:在一些平台和软件上,截取图片并进行“图片识别”,可以查出其是否来自旧照片。
多方验证:不要只信赖单一信息来源,应该从多个权威渠道获取信息并进行对比。对于一些热点事件,可以查阅官方媒体报道,验证信息的真实性。
保持警惕:仔细审查信息的逻辑性,发现明显漏洞、矛盾或不合常理之处,很可能是虚假信息。
谨慎分享:在确认信息真实可靠之前,不要随意转发,以免无意间成为谣言传播的推手。
广告声明:本文包含了外部链接(如超链接、二维码、口令等形式),旨在提供更多信息,节约选取时间,仅供参考使用。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。