AI 假影片教你财富自由?日本公司发表最新技术辨别造假动画、以 AI 制 AI

老高建立了一个实验性的 Youtube 频道 Mr Tabby Tales 证明了只要会使用 AI 就能制作以假乱真的短影音实现财富自由?!他利用生成 AI 生产出的猫抓老鼠系列影片,仅上传 12 支影片就吸引到 38 万订阅户,这也暴露出一个问题,网路媒体上充斥着假新闻讯息和与造假影片,这些短片制作越来越精细,要如何判断真假?日媒采访一间新创公司发表最新的 AI 技术检测分析影片的造假可能性,可以说是以 AI 牵制 AI,让生成 AI 不落入歹徒手中变成诈骗工具。

生成 AI 加速短影音制片流程、影片细致真假难辨

生成式人工智慧(Generative AI)快速发展,过往复杂的影音制作变得快速简单,拥有六百万订阅户的 Youtuber 老高,最近用生成式 AI 制作了一系列猫抓老鼠的短影音,他透过 AI 创作展现只要运用得当,可以轻松制作出高流量的影片吸引观众,甚至可能短期实现财富自由!

然而这类短影音太容易在网路流传,影片精致程度使得观众难以分辨真假,如果用于诈骗犯罪或是散播谣言,也可能以假乱真被民众误信,造成损失。

日本公司 NABLAS 的创新技术以 AI 制衡 AI

针对生成 AI 可能助长大量造假的问题,日本的 NABLAS 公司正开发一种先进的 AI 技术,专门用来识别检测 AI 生成的假影片。NABLAS 的系统透过分析影片中的细节,检查影片在生成过程中可能所产生的非自然动作与不连贯性。

工作原理为先运用 AI 将影片分解为一系列的影像,将每帧影像画面数位化后进行逐帧分析,接着系统检查影像里不自然的动作,即影片中出现的微小错位节点,这通常是生成式 AI 在制作过程中无法避免的瑕疵。

NABLAS 的总监铃木宫尾指出当人工智慧生成每个场景时,影像会出现错位,从而产生不自然的节点,这些细微的不自然之处,正是识别假影片的关键。

更重要的是,该技术还会检查影片中的人物,特别是他们的脸部是否经过 AI 处理。生成式 AI 常常会无意间留下人工修改的痕迹,这些可以被专门设计的 AI 系统发现。

在实际操作中,NABLAS 的系统能够对影片进行详细检测,在一段 AI 生成的影片中,AI 将其图像分解并检查影片的开头,结果显示该影片经过生成式 AI 编辑,伪造的可能性高达 94 %。

铃木宫尾表示,NABLAS 计划于本月底正式启用这项技术,这项技术的推出,将有助于提高公众对虚假影片的警觉性,有效遏制假信息的传播。

AI 的应用已经深入日常生活,生成式 AI 为当前科技的焦点,不仅要学会运用 AI 工具来辅助创作与日常生活,还需要有相应的技术来保障信息的真实性。

铃木宫尾强调开发这项技术的初衷是为了确保 AI 的合理使用,他指出生成 AI 和假讯息可能会在各种场合出现,社会需要认真处理影片造假充斥泛滥的问题,NABLAS 公司的目标是将这项技术应用在更多领域,帮助用户辨识假影片,促进 AI 科技的正确使用。

这篇文章 AI 假影片教你财富自由?日本公司发表最新技术辨别造假动画、以 AI 制 AI 最早出现于 链新闻 ABMedia。

查看原文
本页面内容仅供参考,非招揽或要约,也不提供投资、税务或法律咨询。详见声明了解更多风险披露。
  • 赞赏
  • 评论
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)