Reading view

There are new articles available, click to refresh the page.

AI 视频的国产之光,这个新功能彻底解放抽卡的双手

看完《鱿鱼游戏》不过瘾?干脆自己做个结局。

不想等《沙丘》第三部了?自己上手做一个。

放在以前,光是要让这些演员不走形、不崩坏,都要费半天劲。现在只需要丢一张截图给 AI,就可以开始做电影了。

这是海螺 AI 上线的「主体参考」功能,由全新的 S2V-01 模型提供底层技术支持,可以精准识别所上传图片中的主体,并设定为所生成视频的角色。剩下的,只需要简单的 prompt 指令,就可以随意发挥。

▲来自 X 用户@KarolineGeorges 的创作,面部信息精准保留

▲来自 X 用户@Apple_Dog_Sol 的创作,呈现多元主体

「主体参考」怎么就这么牛了

有一说一,「主体参考」的功能很多厂商都在做。但并非每一家都能攻破这项功能所涉及的难点:稳定、连贯,运动起来依然一致。

别人可能不行,但海螺 AI 可以。只需要一张图片,就能准确理解人物特征,识别为主体,随后让人物出现在各种场景和环境里。

上一秒还在拯救世界的蜘蛛侠,下一秒就骑上机车了。

本来应该在权游里训龙的龙妈,一转眼在逗小狼。

「主体参考」的突破性进展在于实现了创作自由度和还原度的完美平衡。这就像是给了创作者一个「万能演员」,这位演员的外形不会崩坏,而是能随着动作、姿态自然地变化,还能根据导演的要求,在任何场景中表演任何动作。

不仅是新功能,更是独特的技术方案

实测下来的感受是:主体参考是一个截然不同的功能,跟文生、图生所实现的效果并不一样,背后所涉及的技术难点不同,对技术思路的要求也不同。

传统的图生视频,只是让静态的图片动起来,而且主要是局部的改动。以这张宋慧乔的剧照为例,图生只是把原来静态的图片变成了动态,而且范围有限,不会有很大的动作。

▲ 原始剧照

▲ 基于图生视频的成片

同一张照片,「主体参考」却能基于 prompt 的文字,形成一个完整的片段,动作自由的同时,面部特征依旧稳定实现。

▲ prompt:暖调室内打光,剧院观众席中,主人公身穿黑色西装,坐在中排靠左的位置。她的表情充满专注,时而露出轻松的微笑,双手鼓掌,动作自然且富有节奏感。镜头从主人公侧面开始,捕捉她身边其他观众的剪影和暗淡的座椅纹理,强调环境的层次感。随着镜头推进,主人公站起来。

以人物为主体生成视频,目前有两种技术路线。一种是基于 LoRA 技术,对预训练的大型生成模型,进行特定微调。LoRA 在生成新视频时,需要大量计算。这就导致用户必须上传同一主体、不同角度的素材,甚至精确到单个片段需要具备哪些不同的元素,才能保证生成质量。同时还需要消耗大量的 token,以及漫长的等待时间。

基于大量的技术探索,MiniMax 选择了基于图片参考的技术路线:图片包含的视觉信息最准确,从图片出发,符合物理拍摄的创作逻辑。在这个技术路线中,画面的主人公是所有视觉信息中,模型最优先识别的——无论接下来出现什么画面、无论什么情节,主体都需要保持一致。

而其它的视觉信息则更加开放,由文字 prompt 进行控制。这样一来,就能实现「精准还原+高自由度」的生成目标。

▲山谷的空地中,主人公站在巨龙前,长发随风飘动。镜头逐渐拉升,捕捉主人公转身看向远方的动作,巨龙的翅膀展开,吹动主人公的头发和她的裙摆,画面最终以俯拍收尾

这段视频里,只传给了模型一张龙妈的图片。最终呈现出来的视频中,模型准确呈现了 prompt 中涉及的镜头语言、画面元素,体现出极强的理解能力。

图片参考的技术路线,相比于 LoRA 方案,肉眼可见的减少了用户上传的素材,数十段视频化为一张图片。同时等待时间以秒计算,体感上和文字生成、图片生成所花的时间差不了多远——既有图生视频的准确,又有文生视频的自由。

国产之光,满足你的「既要又要」

「既要又要」并不是过分的要求。只有同时实现人物形象的准确一致和自由活动,才能让模型走出整活、做梗图的范畴,在行业应用场景中,具有更广泛的使用价值。

比如在产品广告中,一张模特图,直接针对多种产品生成视频,只需要改变 prompt 就能实现。

如果用图生视频的方式来实现,目前的主流方案是设置首尾帧,可以实现的效果也被已有图片限制住了。同时还得要反复抽卡,收集不同的角度,最后再把素材拼接在一起,才能完成一组有长度的镜头。

结合不同技术的特点,更加符合视频创作的工作流程,正是「主体参考」的优势。未来,超过 80% 的营销从业者会在不同的环节用到生成式工具,他们只需要专注在故事和情节构思上,解放抽卡的双手。

Statista 的统计显示,2021 年时广告营销的生成式 AI 产品市场规模已经超过 150 亿美元。到 2028 年时这个数字将达到 1075 亿美元。以往的工作流里,纯粹的文生视频有太多不可控,适合用在创作初期。欧美的广告营销行业里生成式 AI 已经非常普遍,其中 52% 的用例是在初稿、策划,48% 用于头脑风暴。

目前,海螺 AI 先开放的是对单个人物的参考能力,未来,将会拓展到多人、物体、场景等更加丰富的参考能力,进一步解放创造力,正如海螺的 slogan 所提出的,「每个想法都是一部大片」。

自从去年 8 月,MiniMax 发布视频模型以来,从生成画面品质、流畅度,到一致性和稳定性等方面,在海外持续吸引着大量用户的关注和体验,其中不乏有影像创作经验的从业者,收获了大量正面反馈和专业认可。

在过去一年多的技术竞争中,AI 视频生成领域的竞争格局初步展现。Sora 的实现效果使人们看到视频生成这一领域的潜力,随后各大科技公司,在这一领域纷纷投入资源,重金研发。

随着年底 Sora 产品推出延迟、以及用户试用的口碑平平,未能满足市场期待。这也给了其它玩家抢占市场的机会。

如今,在生成式视频即将走入下半场之时,如今真正展现出技术实力和发展潜力的只有三家:MiniMax 的海螺 AI、快手的可灵 AI、以及字节的即梦 AI 。

作为一家成立刚刚 3 年的初创公司,MiniMax 以精悍干练的初创公司体量,带来足以跻身 T0 水准的产品和技术。从去年 12 月的图生视频模型 I2V-01-Live,到现在的 S2V-01 新模型,都在解决以往视频生成中的棘手难题。

随着技术的不断成熟和应用场景的逐步扩大,视频生成 AI 会在内容创作、影视制作、营销传播等领域掀起新一轮革命。这几家代表着中国视频生成 AI 领域最高水平的厂商,除了继续领衔国内市场,更有望在全球范围内与国际巨头展开竞争。与此同时,如何在保持技术创新的同时,确保产品的稳定性和可控性,将是这些企业面临的持续挑战。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


AI爆火两年,技术飞快跑,大模型突破商业化困局了吗?

自从 ChatGPT 横空出世,AI 的热潮已经席卷了两年。这两年,普通人对大语言模型的能力兴奋,随便一条指令就能生成流畅自然的文本,科幻电影里的场景,如今早已经成为现实。 

大模型这个赛道也开始进入到一个十字路口,新技术如何转化为新产品,满足真需求,发展成新的商业生态。

如同移动支付、智能手机、 LTE 共同点燃了移动互联网时代的繁盛,AI 行业这一年也在寻找这样的 PMF(Product Market Fit)而焦虑。

新技术的大航海时代已经开启,到底能不能发现新大陆,这将决定大模型是不是又一个烧钱的资本游戏,是 .com 泡沫的加速重演,还是如黄仁勋所言的新工业革命开端,这个答案会比 AGI 更快让我们看到 。 

大模型的大问题

今天,基座模型的竞争基本已经形成稳定的格局。由 OpenAI 领衔,旗下的 ChatGPT 也是稳居市场龙头。Anthropic,DeepMind,Llama,Grok,也各有各的长处。

于是,今年最热闹的,不是谁又多扩充了多少参数、响应速度提高了多少秒,而是大模型技术怎么化身为一个能用的产品。 

大语言模型的技术怎么落地,从一开始就是个抓肝挠心的问题。哈佛商业评论曾经做过一个调查,发现生成式 AI 的应用——种类之繁杂,多达 100 类。

不过,在大类上就是五种:技术问题解决、内容生产及编辑、客户支持、学习和教育、艺术创作和调查研究。 

知名的投资公司 a16z,给出了他们团队心中优秀的生成式 AI 产品,其中有不少眼熟的,比如通用类的 Perplexity,Claude,ChatGPT。也有更为垂直的,比如笔记类产品 Granola, Wispr Flow,Every Inc.,Cubby 等。还有教育赛道今年最大赢家 NotebookLM,或者是聊天机器人 Character.ai,Replika 等。  

繁花锦绣是对于普通用户来说的:上面这些产品,绝大多数只是免费就足够用了,订阅版或 pro 版的费用,不是必须花的钱。强如ChatGPT,今年的订阅收入大概在每月 2.83 亿美元,与去年相比增长了两倍。但在巨大的成本面前,这点收入显得杯水车薪。

享受科技发展属于普通用户的开心事,烈火烹油是留给从业者的:再怎么激动人心的技术进化,也不能停留在实验室里,而是要进入商业社会接受检验。订阅模式没有被广泛接受,植入广告的时机还没有到来。留给大模型空烧钱的时间,已经很少了。

相比之下,toB 业务的走势让人有信心的多。

自 2018 年以来,财富 500 强财报电话会议中提及 AI 的次数几乎翻了一番。在所有财报电话会议中,19.7% 的记录提到最多的主题,就是生成式人工智能。

这也是整个行业的共识。根据中国信通院发布的《人工智能发展报告(2024 年)》蓝皮书,2026 年,超过 80%的企业将使用生成式人工智能 API,或者部署生成式的应用。

面向企业侧和消费侧的应用展现出不同的发展态势:面向消费侧,大模型应用讲究低门槛、创意性。而面向企业侧,大模型应用更注重专业定制和效益反馈。

换句话说,提升效益当然是每个企业都在追求、都想实现的,但只有这四个字太模糊了。大模型需要证明自己能实实在在地解决使用场景中的问题,真真切切地提升效益。 

精准找到切角,让技术降落 

无论是资源的投入,还是对开拓市场的力度,国内的大模型竞争,在整个 2024 年称得上激烈。

根据工信部数据,2023 年中国大语言模型市场规模增长率突破 100%,市场规模达到 147 亿元。各家厂商在商业化进程上积极尝试,首先打响的是价格战:以 tokens 计费、API 调用等方式的成本,正在被不断拉低。许多主流热门通用类大模型的价格,离白用已经没多远。

把价格打下、降低成本是更好实现的。而理解业务、分析切入场景,是一条更崎岖的路线。

不过,也不是每一家都在参与价格战,靠低价硬卷。

「在这种情况下,更重要的是找到我们的特点,发挥我们的优势。腾讯内部本身有很多场景,这些场景给了我们更多洞察,也进一步打磨了我们的能力」腾讯云智能 AI 产品专家、腾讯混元 ToB 产品负责人赵新宇这样认为,「往外看,聚焦一个行业,聚焦在这个行业内一些特定的场景,再慢慢拓展出去。」

在众多基座模型中,混元可能不是热度最高的一个,可在技术实力上却不容忽视。

九月时,混元发布的通用文生文模型混元 Turbo,采用全新的混合专家模型(MoE)结构。从语言理解和生成、逻辑推理、意图识别,到编码、长上下文和聚合任务中,都有相当强大的表现。在 11 月的动态更新版本中,已经升级为全系列效果最好的模型。目前,腾讯混元的能力正在通过腾讯云全面输出,通过提供多尺寸、多类型的模型,结合腾讯云智能其他的AI产品和能力,帮助模型应用落地到场景中。

纵观目前模型应用落地形态,大致分为两种:严肃场景和娱乐场景。后者类似于聊天机器人、陪伴类应用等等。

而「严肃场景」,则指向企业核心业务运营中,对准确性和可靠性要求较高的应用场景。在这些场景中,大模型要承担结构化的信息处理,往往需要遵循预设的业务流程和质量标准,其应用效果,会直接关系到企业的运营效率和业务成果。

腾讯云曾经帮助一家外呼服务商构建客服体系,这是一个典型的严肃类场景。同时,外呼涉及到自然语言对话能力、内容理解和分析能力,看上去天然和大语言模型有极高的适配。

实际上,挑战都在细节之处。当时团队面临核心挑战有两个。一是性能问题,由于模型参数量巨大,达到 70B 或 300B 规模,如何在500毫秒内完成响应,并传递给下游 TTS 系统成为一个重要的技术难题。

二则是对话逻辑的准确程度。模型会在在一些对话中出现不合逻辑的回复,影响整体对话效果。为了克服这些挑战,项目团队采取了密集迭代的策略,在 1-2 个月的开发周期内,保持每周一个版本的快速迭代节奏。

企业客户对大语言模型技术展现出兴趣,并愿意进行创新尝试,但在技术与业务的深度融合方面,始终存在认知鸿沟。这并非源于企业对自身业务理解的不足,而是需要一个专业的技术团队,通过深入理解行业痛点和业务场景,找到最恰切的场景,为企业量身打造 AI 落地的方案,实现技术与业务的最优契合。

「传统的做法可能需要运营人员一个场景一个场景地搭建(语料库),」新宇介绍到,「而大模型,你只需要给一个 prompt,就可以实现需求了。」在摸清楚需求后,混元的团队几乎每周一个版本更新,「卷」起了迭代速度,一两个月下来,准确度已经达到了 95%。

对于这家外呼服务商,生成式技术完全是新鲜事物。而混元直接让他们看到了大模型所带来的效益,在人力方面的开支减少了四分之三。

「最好的做法就是把效果拿出来,」新宇说,当客户对生成式技术的了解有一点,但不多的时候,把效果摆出来是最有效的。通过客户的业务经历,找到可以切入的场景,直接去做测试验证,展示出可以提升的效果。

类似的经历,在体现和小米的合作中,这是一次被称为「双向奔赴」的合作。

对方希望在问答互动中引入大模型,把AI搜索的能力应用到端侧。这踩中了混元的两个长处:一是由腾讯丰富的内容生态所提供的支持;二是混元在 AI 搜索方面的能力。对于问答来说,准确率非常关键。

「一开始还是有很多困难的,」新宇回顾道,「从他们的角度来看,业务形态涵盖了多个场景,包括闲聊、知识问答等不同类型,其中知识问答场景,对准确率有比较高要求。」

通过前期的测试,混元团队明确了自己在搜索场景中的优势,双方一起将广泛意义上的问答互动,按照不同的话题层级逐步细化。这样的细分,能够让模型更清晰地了解各个场景的具体需求和效果要求,从而进行更有针对性的优化。 

知识问答场景,成了那个降落点。在后续的实现上,混元需要攻克的挑战仍不少:时延问题不必多说,响应时间一定要快;其次是对搜索内容的整合。 

「在整个链路当中,我们做了自建搜索引擎,还有一个意图分类模型,来判断是不是一个高时效性的提问。比如是不是跟新闻、时事相关的话题,然后再判断是该给到主模型还是 AI 搜索。」

只调用最需要的部分,这样一来响应速度能够大大提升。而一个重要的发现是, 70% 的问询都会引到 AI 搜索上,这意味着必须要有足够丰富的内容,作为最基础的调用支撑。

而混元背后,站着的是整个腾讯的内容生态。从新闻、音乐、金融,甚至医疗等更具体的领域,都能在腾讯的生态里找到海量的优质内容。这些都是混元模型在搜索时,可以触达和引用的数据,也是独一无二的壁垒。 

经过历时两个多月的高强度迭代,最终无论是回答的质量、响应和性能等方面,都完全实现了需求,上线到了小米的实际业务中。

toB 业务的要义便在于此,能够实现营收、能够赢得信任,需要实实在在给客户的业务带来价值。

「卷」泛化,才能走向更多场景 

大模型在不同行业和产品的落地中,实际上也在促进技术自身的成长。 

对于一部分大模型产品而言,选择 toC 的路径有一个核心考量:用 C 端的反馈来优化模型。大模型对调优的需求没有尽头,而 C 端消费群的数量和活跃度,为模型的迭代提供了养料。这样一来,迭代的飞轮就能跑起来。

实际上,这在 toB 业务中也会实现,甚至要求更高。

「少年得到」的 K12 语文作文批改功能,应用了混元的多模态能力。结合腾讯云智能的 OCR 技术,识别学生的作文内容,并根据设置好的评分标准,由大模型为作文打分。

通常,大模型和真人教师判分,差值在五分内就很好了——可这并不容易实现。一开始混元的评分和真人教师的评分,差值小于五分的情况,只有 80%。

「模型有一定方法和能力,能够解决一些场景里的问题。但是聚焦到一个具体客户的业务上,对这个效果有更高的要求。」新宇说,「可能 90%的准确度可以达成业务目标,但只有 70% 和 80% 的时候,就有一定距离。」 

这意味着还要继续「卷」下去。随着服务企业客户群体的不断扩大,对技术本身也提出了新要求:首先是迭代速度的大幅提升——面向 C 端用户时,迭代可能需要一到两个月。而现在,每周都能出现一个版本,这种高频迭代节奏极大促进了模型的成长和进步。

其次,通过持续服务不同企业场景,也显著增强了模型的泛化能力。这表明,深入服务多元化的企业需求不仅加快了模型开发迭代的节奏,也提高了模型的实用性和适应性,可以从严肃场景,拓展到偏娱乐向的场景中。 

刚刚获得千万级 A 轮融资的角色扮演内容平台「造梦次元」,应用到了混元大模型的角色扮演专属模型Hunyuan-role,定位于服务年轻用户,结合生成式 AI 技术,提供交互式、剧情化的虚拟角色互动体验。

Hunyuan-role 开创了一种全新的人机交互方式。通过塑造丰富多样的虚拟角色形象,并基于预设的剧情背景和人物设定,与用户展开自然流畅的互动对话。

在技术层面,这样的场景应用到了 Hunyuan-role 在长短文本对话处理、意图识别和响应等方面都展现出领先优势,能够胜任多样化的应用场景,并且展现出了出色的内容拟人化能力——不仅能够进行有温度的对话互动,还可以推进故事情节发展,营造沉浸式的用户体验。

这些特性使得 Hunyuan-role 成为产品获客和用户运营的有力工具,在提升用户留存率和使用粘性方面发挥着重要作用。同样也反映出,在严肃场景得到锻炼和提升的混元,从而形成的泛化能力,可以覆盖到更广阔的场景,乃至在端侧的应用。

从严肃场景,逐步扩展到娱乐、创意,乃至更多的场景,是大模型应用必须走上的征程。

随着技术的成熟和成本的降低,大模型势必要向更广泛的应用场景扩展。原先聚焦于严肃的商业场景,如企业办公、数据分析、科研等行业,因为这些场景具有明确的需求和较高的支付意愿。

进一步拓展到娱乐、创意、内容生产等行当中,需要在思路上有一个锚点:始终以解决具体场景中的需求点为核心目标,锚定融合大模型能力的切入点。

除了与应用软件的合作,也需要有和硬件厂商的合作,让模型在最靠近消费者的端侧有所施展与发挥,提供更贴近用户的日常生活,提供更便捷、即时的服务体验。

这个过程中,市场对生成式 AI 技术的认知和接受度在不断提高,用户基数也在持续扩大。面对这种快速变化的市场环境,模型的迭代能力变得尤为重要。这不仅体现在技术性能上,还包括对用户需求的理解、对不同场景的适应性等多个维度。只有那些能够快速学习、持续优化、不断适应新需求的模型和团队,才能在竞争中保持优势。 

在不断覆盖更多场景的时候,也是在走向更多的终端消费者。随着市场整体对生成式技术的接受,潜在用户量会持续增加,一个能够快速迭代和自我提升的模型,才可以敏锐地适应变化,走得更稳、更远。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


这个中国歌手用 iPhone 把 MV 当电影拍,让库克也大呼惊奇

从 17 岁登上 Tomorrow Land,到成为第一位签约美国四大唱片公司之一 BMG 音乐的中国歌手,这个叫 Chace 的年轻音乐人,作品名录中,又多了一首新作:《Tunnel Vision》。

从 Michael Jackson 的音乐中获得灵感,Chace 巧妙挑选出一系列八十年代元素,但并不沉迷于旧事物,而是赋予了整首歌更清爽摩登的整体气质。《Tunnel Vision》是一支相当现代的复古作品:听感强烈明快,底色晦涩不明。

上周,Chace发布了这支新作以及 MV,MV 使用 iPhone 16 Pro 和 iPhone 16 Pro Max 拍摄,后期在 Mac Book Pro 上完成。

爱范儿受邀参与了点映分享会,除了抢先看到这支 MV,还和 Chace 聊了聊拍摄当中的巧思和细节。见识到 iPhone 16 在专业拍摄中,又一次的角色升级。

▲ 点映会分享环节,从左到右:摄影指导陈大为,Chace,特邀主持、微博博主@呆若木一

后制?前置!

平心而论,iPhone 强大的影像能力,在今天已经不足为奇——手机摄影更深次的价值,体现在它在工作流中的位置。

9 月时,Chace 受邀参加当时的 Apple 秋季新品发布会,被现场展示的 The Weekend 新单曲《Dancing In The Flame》的 MV 所惊艳。

这支使用 iPhone 16 Pro 的作品,使 Chace 当下就决定,也要用 iPhone 16 Pro来完成自己准备提上日程的新歌 MV 拍摄工作。

全新的 iPhone 16 Pro 和 iPhone 16 Pro Max 在新的硬件、软件和先进的 A18 Pro 芯片加持下,Pro 级摄像头系统更加强大多能。两款 iPhone 16 Pro 机型均配备带更快传感器的新 4800 万像素 Fusion 摄像头、以及高分辨率选项的新 4800 万像素超广角摄像头,以及具备卓越放大功能的 5 倍长焦镜头。

更高的分辨率,加上相机控制的多功能,让相当于七个专业级镜头的摄像头比以往更加强大,胜任 MV 的拍摄显然不是问题。

Chace 在之前自导自演过不少 MV,《Cinematic》更是向诺兰致敬,拍出了一支 6 分钟的微电影。这次是他第一次尝试用 iPhone 拍摄一支 MV,预先进行压力测试、反复调整解决方案,变得格外重要。在拍摄前他和长期合作的摄影指导陈大为,对拍摄的细节做了很多预案。即便如此,现场还是会出现意料之外的情况。

为期两天的拍摄里,Chace 采取了一种特殊的策略:后期工作前置。更具体的说,他在拍摄前期尽可能地预备好方案,并通过预拍摄的方式,测试实现效果,调整方案。那么最后正式拍摄时,只需要原样重现。

这是 iPhone 16 Pro 赋予他这样操作的可能性,毕竟,没有哪个使用专业摄影设备的剧组,经得起这样的制作思路。

「如果像我们平常的配置,比如说专业的摄影设备,然后进 AE、再进达芬奇,谁陪你做测试?」Chace 说,「那相当于钱在那里烧着,然后 30 个人等你测。」

在现场,iPhone 16 Pro 需要完成拍摄、监看、传输等工作,Chace 和陈大为发现 Airdrop 会造成一定文件质量损失,后来调整为 SSD 传输。选配雷雳 4 Pro 连接线等 USB 3 连接线,iPhone 可在自身和其它 USB 3 设备之间获得高达每秒 10 Gb 的超高传输速度。

在现场还有一个剪辑站,配备装载 Mac 版 Final Cut Pro 的 Macbook Pro,以及 Apple 首款 32 英寸 6K 视网膜显示器,这是 Apple 迄今最先进的专业显示器,超过十亿色彩,峰值亮度可达 1600 尼特,对比度达到 1000000:1。同时,现场使用的 Final Cut Pro,专为 Apple 芯片进行了诸多优化,加上 Metal 引擎的强劲动力,让 Final Cut Pro 能快速处理素材,剪辑复杂项目。

于是流程变成了:拍完一段,通过 SSD 传送后,使用 Final Cut Pro 进行基础调色和剪辑,检视效果,并且针对性的调整原有方案中的走位、调度、布光等等等等。最终正式拍摄前,大部分问题,都已经由预拍摄发现并解决了。

这一步,大大减少了后期制作的工作——还远不是时间层面的。

「这抵掉的不是时间,抵掉的是风险。」Chace 解释道,整个片子中,用到了不少合成镜头。这意味着,一旦前期拍摄中,任何瑕疵镜头,都会给后期带来不小的工作。

「比如后期如果发现影子重合了,我就得找专业的人去抠,还不是单纯就剪掉。还比如镜头稍微抖一点,后期并不是说稍微旋转一下就好了,它的景深会有一些差距。所以我需要花时间去做测试,不然后面不仅是说时间,是时间、精力跟成本,所有这些东西都要调。」

与其说对比设备本身,从而得出结论说手机拍摄更方便,不如说手机重构了整个拍摄的工作流,没有 iPhone 16 的全面能力,这样的策略难以实现。

Tim Cook 在现场探班时,也不禁感叹道,像这样把那么多工作都放在现场的情况很少见。

「很多人会掉进工业化跟技术的那个坑里,比如说我们一定要用怎样的光圈,一定得是这个数字。」Chace 说,「无论是拍视频还是做音乐,工具就是拿来用的。」由创作者来使用,由创作者来决定。

如同 Chace 这样,后制工作可以被前置,这当中所减少的花费、时间和负担,所释放出的可能性,远超想象。

更多功能,更多可能

看过《Dancing In The Flames》的朋友,应该会对片中大量的升格慢镜印象深刻。

能够用手机实现这样的镜头,来自于 A 18 的强大性能,得以实现 4K 120 fps 杜比视界视频拍摄功能,支持超高分辨率慢动作,且在编辑时可灵活调整帧率。

类似地,在《Tunnel Vision》里,几个慢镜头成了这支 MV 的点睛之笔。在 MV 里,多处都出现了升格慢镜头的应用。橙子从纸袋里掉出来,滚进轨道里;角色之间互相的推搡和拉扯。这些原本一瞬即逝的段落,被慢镜头拉长后,充分渲染出情绪,更放大了荒诞和戏剧感。

这并不是一支追求清晰表意的作品,带一点戏剧、一点荒诞感。「这个脚本改到最后两天才确定,」Chace 分享到,「当时想说能不能在一个有限的空间里,用一个比较无厘头的方式,让大家感觉到发生了什么,让大家在三分钟的时间里看进去。」

「于是就想了一个橘子的意象,从它开始,发生了一系列有点奇怪,但又有点似懂非懂的感觉。」

这个橘子的情节,成了整个 MV 的关键情节点,也充分展示了 iPhone 16 pro 支持 4k 120fps 之后,对创意实现的加成。

除了 MV 正片,封面也由 iPhone 16 Pro 拍摄完成,新一代摄影风格也带来了卓越的画质和更大的后期空间,计算摄影管线的进步,使 iPhone 加深了对肌肤底色、色彩、高光和阴影的理解,实现实时处理和更多创意空间。

这是一次与以往完全不同的拍摄体验,Chace 回想起来,尽管之前的经验里,他也经常要自导自演,但完全是另一种状况。

「如果是之前,我的角色其实是两个。不说画面里(扮演)的角色,我(作为导演)的角色就是确定,这个画面好不好。回放,看一下,OK——其实这是我唯一的工作,剩下的制片也在,美术也在,我不用管其它的,只要确定画面就好。」

而这次,他整个人忙碌起来,在现场时一分钟都停不下来。「我真的是每个环节里都在干活儿,大家可能在休息,但我一直在确认画面、合成,一直没闲下来。这可能跟我本人的性格有关,我希望可以尽量兼顾到各个方面。」

另一方面,一套全新的工作流和作业方式,也激发了他更彻底地投身其中,使他的种种想法最终成为可能,「Apple 一直以来看重的是创意、创造力。我希望多给一点,和 Apple 的合作,就应该是这样的。」

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌