核心思路:视频转代码,代码转视频
整个工作流分三步:
- 获取素材——下载你想复刻的视频片段(可以用 OpenCode 客户端直接下载推特视频,或者自己录屏、截取 GIF)
- AI 复刻——把视频丢给 Kimi K2.5,让它用网页代码还原画面
- Remotion 生成——把生成的代码复制到你的 Remotion 项目里,调整参数,输出成品视频
这套流程的关键在第二步。之前用 Gemini Pro 和 ChatGPT Plus 试过同样的「视频转代码」功能,效果都不理想。K2.5 的视觉理解能力确实拉开了差距。
配置 Kimi API
如果你用的是 OpenCode 客户端,配置过程很简单:
- 打开 OpenCode,在聊天窗口输入
/model,或用快捷键打开模型选择 - 在弹窗中点击「连接提供商」,输入 kimi
- 去 Kimi 官网注册并充值(有 5 元的 7 天试用包,记得取消自动续费)
- 在 Kimi 控制台新增 API Key,粘贴回 OpenCode 即可
有一个坑:写这篇文章时 OpenCode 还没更新 K2.5 的模型列表,所以暂时只能在 Kimi 官网直接使用。等客户端跟进后可以无缝切换。
实操:GIF 图片复刻
第一个测试是复刻一张 GIF 动图。Kimi 官网不支持直接上传 GIF,需要先转成 MP4 再上传。上传后让 K2.5 用网页代码还原,生成的预览效果几乎是完美复刻,肉眼很难看出差异。
提示词不需要多复杂,直接告诉它「用网页代码复刻这个视频」就够了。
实操:短视频复刻
第二个测试是一段从推特下载的短视频,同样直接丢给 Kimi,要求用网页复刻。代码生成后复制到 Remotion 项目中,加上想要的效果调整,就能输出成品。
整个过程没有手写一行代码。最终的演示视频是 GIF 复刻和短视频复刻的组合——随意拼接的,细节上有些小瑕疵,但没有刻意调优,重点是验证流程的可行性。
这套工作流的价值
对独立开发者和一人公司来说,这套组合拳解决了一个实际问题:短视频制作的代码化和自动化。传统做法要么靠剪辑软件手动操作,要么写大量动画代码。现在的路径是让 AI 看一眼目标效果,直接生成可用代码,再用 Remotion 批量渲染。
Remotion 本身就是为程序化视频设计的 React 框架,配合 K2.5 的视觉转代码能力,等于给它加了一个「看着做」的入口。想复刻某个视频风格、某个精彩画面,录屏传上去就行。
这个方向值得持续关注。当前 K2.5 在复杂场景下可能还有局限,但对于常见的短视频模板、动画效果、UI 演示类内容,已经足够实用。如果你也在用 Remotion 做视频,建议直接上手试试——从一个简单的 GIF 复刻开始,感受一下这套流程的效率。