核心思路:视频转代码,代码转视频

整个工作流分三步:

  1. 获取素材——下载你想复刻的视频片段(可以用 OpenCode 客户端直接下载推特视频,或者自己录屏、截取 GIF)
  2. AI 复刻——把视频丢给 Kimi K2.5,让它用网页代码还原画面
  3. Remotion 生成——把生成的代码复制到你的 Remotion 项目里,调整参数,输出成品视频

这套流程的关键在第二步。之前用 Gemini Pro 和 ChatGPT Plus 试过同样的「视频转代码」功能,效果都不理想。K2.5 的视觉理解能力确实拉开了差距。

配置 Kimi API

如果你用的是 OpenCode 客户端,配置过程很简单:

  • 打开 OpenCode,在聊天窗口输入 /model,或用快捷键打开模型选择
  • 在弹窗中点击「连接提供商」,输入 kimi
  • 去 Kimi 官网注册并充值(有 5 元的 7 天试用包,记得取消自动续费)
  • 在 Kimi 控制台新增 API Key,粘贴回 OpenCode 即可

有一个坑:写这篇文章时 OpenCode 还没更新 K2.5 的模型列表,所以暂时只能在 Kimi 官网直接使用。等客户端跟进后可以无缝切换。

实操:GIF 图片复刻

第一个测试是复刻一张 GIF 动图。Kimi 官网不支持直接上传 GIF,需要先转成 MP4 再上传。上传后让 K2.5 用网页代码还原,生成的预览效果几乎是完美复刻,肉眼很难看出差异。

提示词不需要多复杂,直接告诉它「用网页代码复刻这个视频」就够了。

实操:短视频复刻

第二个测试是一段从推特下载的短视频,同样直接丢给 Kimi,要求用网页复刻。代码生成后复制到 Remotion 项目中,加上想要的效果调整,就能输出成品。

整个过程没有手写一行代码。最终的演示视频是 GIF 复刻和短视频复刻的组合——随意拼接的,细节上有些小瑕疵,但没有刻意调优,重点是验证流程的可行性。

这套工作流的价值

对独立开发者和一人公司来说,这套组合拳解决了一个实际问题:短视频制作的代码化和自动化。传统做法要么靠剪辑软件手动操作,要么写大量动画代码。现在的路径是让 AI 看一眼目标效果,直接生成可用代码,再用 Remotion 批量渲染。

Remotion 本身就是为程序化视频设计的 React 框架,配合 K2.5 的视觉转代码能力,等于给它加了一个「看着做」的入口。想复刻某个视频风格、某个精彩画面,录屏传上去就行。

这个方向值得持续关注。当前 K2.5 在复杂场景下可能还有局限,但对于常见的短视频模板、动画效果、UI 演示类内容,已经足够实用。如果你也在用 Remotion 做视频,建议直接上手试试——从一个简单的 GIF 复刻开始,感受一下这套流程的效率。