Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

OpenAI 发布最强推理模型 o1!打破 AI 瓶颈开启新时代,GPT-5 可能永远不会来了

By: Anonymous
7 September 2024 at 14:10

DUN.IM BLOG

DUN.IM BLOG

没有任何预警, 突然发布了 OpenAI o1 系列模型。按照官方技术博客说法,o1 在推理能力上代表了当前人工最强的推理水平。

OpenAI CEO Sam Altman 表示:「OpenAI o1 是一个新范式的开始:可以进行通用复杂推理的 。」

在复杂推理任务上,这款新模型是一次重要突破,代表了 AI 能力的新水平。基于此,OpenAI 选择将此系列重新命名为 OpenAI o1,并从头开始计数。

不知道这是否意味着,GPT-5 这个命名也不会出现了。

简单总结新模型的特点:

OpenAI 发布最强推理模型 o1!打破 AI 瓶颈开启新时代,GPT-5 可能永远不会来了

现在,该模型已经全量推送,你可以通过 网页端或者 API 进行访问。

其中 o1-preview 还是预览版,OpenAI 还会继续更新开发下一版本。目前使用有一定次数限制,o1-preview 每周 30 条消息,o1-mini 每周 50 条。

和传闻中的「草莓」一样,这些新的 AI 模型能够推理复杂任务,并解决科学、编码和数学领域中比以往更为困难的问题。官方表示,如果你需要解决科学、编码、数学等领域的复杂问题,那么这些增强的推理功能将尤为有用。

例如,医疗研究人员可以用它注释细胞测序数据,物理学家可以用它生成复杂的量子光学公式,开发人员可以用它构建并执行多步骤的工作流程。

此外,OpenAI o1 系列擅长生成和调试复杂代码。

为了给开发人员提供更高效的解决方案,OpenAI 还发布了一款更快、更便宜的推理模型 OpenAI o1-mini,尤其擅长编码。

作为较小版本,o1-mini 的成本比 o1-preview 低 80%,是一个功能强大且高效的模型,适用于需要推理但不需要广泛世界知识的应用场景。

在具体训练过程中,OpenAI 会训练这些模型在回答问题之前深入思考。o1 在回答问题前会产生一个内部的思维链,这使得它能够进行更深入的推理。

通过训练,OpenAI o1 模型能够学会完善自己的思维方式,并且随着更多的强化学习(训练时间计算)和更多的思考时间(测试时间计算)而持续提高。

OpenAI 研究员 @yubai01 也点出了 01 的训练路线:

我们使用 RL 来训练一个更强大的推理模型。很高兴能成为这段旅程的一部分,而且要走很长一段路!

据介绍,在测试中,这款模型在物理、化学和生物等任务中表现得如同博士生,尤其是在数学和编码领域表现突出。

在国际数学奥林匹克竞赛(IMO)的资格考试中,GPT-4o 只解决了 13% 的问题,而推理模型得分高达 83%。在 Codeforces 编程竞赛中,它的表现进入了前 89% 的队列。

不过,和传闻的爆料一样,作为一个早期版本,该模型还不具备一些 ChatGPT 的常用功能,比如网页浏览和上传文件或图像等多模态能力。

相比之下,GPT-4o 反而会更加胜任许多常见的应用场景。

为了确保新模型的OpenAI 提出了一种新的安全训练方法。

在最严苛的「越狱」测试中,GPT-4o 得分为 22(满分 100),而 o1-preview 模型得分为 84,在安全性方面堪称遥遥领先。

从下周开始,ChatGPT Enterprise 和 Edu 用户也可以访问这两款模型。符合条件的开发人员现在可以通过 API 使用这两款模型,每分钟速率也有所限制。

在这里划个重点,OpenAI 表示,未来将向所有 ChatGPT 免费用户提供 o1-mini 的访问权限。不过,大概率也会在次数上有所限制。

关于新模型 o1 更多细节,我们很快将在更详细的体验后与大家分享。如果你有感兴趣的问题,欢迎在留言区告诉我们。

官方也放出了更多 OpenAI o1 的更多演示

比如使用 OpenAI o1 来编写一个找松鼠的网页游戏。这个游戏的目标是控制一只考拉躲避不断增加的草莓,并在 3 秒后找到出现的松鼠。

与传统的经典游戏如贪吃蛇不同,这类游戏的逻辑相对复杂,更考验 OpenAI o1 的逻辑推理能力。

又或者,OpenAI o1 已经开始能通过推理,解决一些简单的物理问题,

演示列举了一个例子,一颗小草莓被放在一个普通的杯子里,杯子倒扣在桌子上,然后杯子被拿起,询问草莓会在哪里,并要求解释推理过程。这表明模型能够理解物体在不同物理状态下的位置变化。

落地到具体的应用中,OpenAI o1 还能成为医生的得力助手,比如帮助医生整理总结的病例信息,甚至辅助诊断一些疑难杂症。

热衷于将 AI 与科学相结合的量子物理学家马里奥•克莱恩(Mario Krenn)也向 OpenAI 的 o1 模型提出一个关于特定的量子算符应用的问题,结果,OpenAI o1 也轻松拿捏。

「Strawberry」里有多少个「r」,GPT-4o 会回答错误,但却难不倒 OpenAI o1,这一点值得好评

不过,经过实测,OpenAI o1 依然无法解决「9.11 和 9.8 哪个大」的经典难题,严重扣分。

对于 OpenAI o1 的到来,英伟达具身智能负责人 Jim Fan 表示:

我们终于看到了推理时间扩展的范式被推广并投入生产。正如萨顿(强化学习教父)在《苦涩的教训》中所说,只有两种技术可以无限制地与计算规模化:

学习和。是时候将重点转向后者了。

在他看来,大模型中的很多参数是用来记忆事实的,这的确有助于在问答的基准测试「刷分」,但如果将逻辑推理能力与知识(事实记忆)分开,使用一个小的「推理核心」来调用工具,如和代码器,这样可以减少预训练的计算量。

Jim Fan 也点出了 OpenAI o1 最强大的优势所在,即 o1 模型可以轻松成为数据飞轮的一部分。

简单来说,如果模型给出了正确的答案,那么整个搜索过程就可以变成一个包含正负奖励的训练数据集。这样的数据集可以用来训练未来的模型版本,并且随着生成的训练数据越来越精细,模型的表现也会不断改善。好一个通过自己博弈,实现自己训练自己的内循环。

不过网友的实测中也发现了一些问题,比如回复的时间长了不少,虽然花了更长时间思考,但在一些问题上也会出现答非所问输出不全等问题。

赛博禅心猜测,这次的 o1 有可能是 GPT-4o 在进行一些微调/对齐后的 agent,整体远低于预期,

Sam Altman 也承认 o1 仍然有缺陷,存在局限,在第一次使用时更令人印象深刻,而在你花更多时间使用后就没那么好了。

尽管如此,OpenAI o1 模型在整体的表现上还是可圈可点。

现在,OpenAI o1 模型的发布堪称下半年 AI 模型大战的导火索,如无意外,接下来,其他 AI 公司也不会藏着掖着了。

没错,我点的就是 Anthropic、Meta AI、xAI 等老对手、以及一些潜在深处的 AI 黑马。

并且,从 GPT-4 发布至今,OpenAI 每一次模型发布的最深层意义并不在于性能的强大,而是提供了一种技术路线的标杆,从而带领人们往未知的深水区迈进。

GPT-4 如此,OpenAI o1 也希望如此。

ChatGPT o1 会主动思考推理的 AI,新模型发布实测总结

By: Anonymous
8 September 2024 at 12:45

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

ChatGPT o1 会主动思考推理的 AI,新模型发布实测总结

今天发布「 ChatGPT o1-preview」,是会尝试主动思考的 语言模型, Plus 订阅用户现在就可使用。

根据 OpenAI 的说法:「我们训练这些模型〔ChatGPT o1-preview〕在回应前花更多时间思考问题,就像人类一样。通过训练,它们学会精炼思考过程、尝试不同策略,并能察觉自己的错误。」「如果您正在解决科学、程序设计、数学和相关领域的复杂问题,这些增强的推理能力可能特别有用。」

我自己在讲 ChatGPT 提升工作效率的相关课程时,常常强调一个设计指令的重点:「如果我们写 AI 指令〔 prompt、提示语〕时,可以让 AI 写出自己在想什么、怎么处理任务,通常生成的内容结果会相对更好。

从用户端的角度来看「ChatGPT o1-preview」,就是在 AI 生成内容前,会先展开一步一步的思考流程,它可能会选择思考的策略与切入点,有时会提出一些批判思考,也会更仔细的分析资料细节来做深入处理。

在这个过程中,ChatGPT o1-preview」生成内容的速度其实比 GPT-4o 要慢上不少,可能需要 30~60 秒的思考时间〔或者更久〕,才会开始一步一步的生成内容。

也因为这样的「思考」过程需要耗费更多运算,所以即使是 ChatGPT Plus 用户,在使用「ChatGPT o1-preview」时也有一些限制:

也就是说,目前「ChatGPT o1-preview」比较像是「GPT-4o」的辅助,在进行一些需要深入分析资料、产出有逻辑结果的任务,或者像是科学、数学、程序代码相关领域时,可以运用。

今天这篇文章,我就从自己日常惯用的几个 AI 辅助需求:翻译、摘要、企划思考、文案,以及有时用代码写个小的角度,以实际案例测试看看,「ChatGPT o1-preview」的效果如何,并和「GPT-4o」同样指令下的结果作比较。

当然,如果能从科学、数学与代码的角度来更好,不过从我个人常用角度出发,也想验证看看 ChatGPT o1-preview 是否能满足我的日常工作需求,也提供大家参考。

下面,先提供大家下面测试案例的快速心得比较表格。

翻译结果更简洁有力,文句白话流畅。

用语更符合台湾惯用词汇。

在「白话流畅度」与「专业用语」间平衡得更好。

翻译结果相对较弱,文句不如 o1-preview 流畅。

能计算分数并回馈对错。

无需修改即可使用。

需要多次反复调整才能达到可用程度。

提供具体、逻辑分明的建议步骤和文章架构。

深入分析资料细节。

缺乏深入的分析和明确的建议。

能整理出详细的步骤和操作要点。

细节完整程度略有不足。

缺乏社交贴文所需的流畅性和吸引力。

更注重性和准确性,避免使用版权材料。

可能在细节上不够精准。

首先来试试看翻译〔英翻中〕,我通常会用下面指令来要求 ChatGPT 翻译文章:「把下面这篇 XXX 主题的文章,翻译成中文,请一段一段翻译,尽量在维持原文语意,主题风格的情况下,让上下文的语句更自然通顺,遇到专有名词时附注英文原文,并在第一遍基本翻译后,用台湾惯用词汇与语气进行最后修饰。

下图「左方」,是「ChatGPT o1-preview」翻译的结果。下图「右方」,是「GPT-4o」翻译的结果。

结论是,「ChatGPT o1-preview」花了 57 秒完成一整篇文章的翻译〔文章是 OpenAIChatGPT o1-preview」官方公告〕,但是翻译的结果比「GPT-4o」优异不少。

例如,大多数时候,ChatGPT o1-preview」翻译的文句更加简洁有力〔相对「GPT-4o」〕,可以在许多段落看到这样的差别。

ChatGPT o1-preview」翻译的结果也更白话,相对流畅,用语更符合我指定的中文用语。

ChatGPT o1-preview」在「白话的流畅度」与「专业用语」之间也相对更能拿捏得当,会让人更容易看懂,但又保持专业用语的明确性。

我让「ChatGPT o1-preview」测试直接写一个九九乘法表小工具。o1 同样会先思考撰写工具的逻辑,然后才开始写出程序代码。

我提供的指令是:「我的小孩正在练习记忆数学的 99 乘法表 ,你可以设计一个协助她练习的小游戏吗?

请一步一步分析,从简单的 2 与 5 的乘法表开始,然后练习 3、4、6、7、8、9 的乘法表,根据每一个乘法表设计一个记忆游戏,游戏一开始可以选择要练习哪一个乘法表,进入后可以随机考验该乘法表的熟练度,最好设计有游戏机制。

下面是 ChatGPT o1-preview 第一次生成的 99 乘法表小游戏,我没有做任何的修改,但是正确性、界面美化、操作流畅度都已经达到可用的程度,还会计算分数与回馈对错。

下面是旧版 GPT-4o 第一次生成的小游戏,基本界面可操作,但有一些明显错误〔如下图〕,可能还需要多几次的反复问答,才能调整正确。

我也很常跟 ChatGPT 一起讨论沟通企划案,下面是新旧版本生成的结果比较。

我提供了许多参考资料,请 AI 帮我做产品的企划报告。

ChatGPT o1-preview」在生成过程中,会主动做一些反向思考,与探索不同的报告呈现方式,并且提供一些具体的、逻辑分明的建议步骤,这些不一定有出现在我的指令中。

下面是 ChatGPT o1-preview 生成的版本,我举出其中一部分,它提出了一个撰写初稿的建议方案,并指出了一些明确的试写步骤、文章架构方向。

下面是 GPT-4o 类似段落的版本,虽然也提出了撰写初稿的建议,但整体的说明就比较一般,少了一些明确的、深入的分析与建议。

我也测试了用两个版本去摘要同一篇文章。

下面是 ChatGPT o1-preview 的版本,可以看到文章细节整理得更深入、完整、有条理。

下面是 GPT-4o 版本摘要的结果,基本架构也相似,但细节的完整程度就有一点落差。

不过,ChatGPT o1-preview 也有他不擅长的内容,目前看起来它撰写流畅文案的效果,反而没有 GPT-4o 好〔现在写文案相对效果最好的可能是 Claude 3.5 Sonnet 〕。

下面我请 AI 根据参考资料写出社交贴文上的文案。

ChatGPT o1-preview 版本,AI 会思考撰写过程,撰写时会进行更多安全性、准确性的思考,例如避免使用版权材料

但是多次尝试后, ChatGPT o1-preview 版本目前的结果,比较像是把参考资料更有结构、更有逻辑的分析整理,不太像是社交贴文。

相较之下, GPT 4o 的版本,可能细节没有那么精准,但文案比较流畅。〔如下图〕

以上就是我的初步测试案例与心得,提供大家参考。

全球 AI 产品 Top100 出炉!只有一个国产应用进前十

By: Anonymous
19 August 2024 at 13:18

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

8 月 21 日,硅谷知名投资机构 a16z,根据近半年的数据,选出了前 100 名 应用

大多数人在使用哪些 AI 产品?哪些类别更受欢迎?用户会坚持使用哪些 AI 产品,而不是转瞬即忘?接下来,我们一起来看看。

这已经是 a16z 第三次发布 AI 百强榜单了,第一次是 2023 年 9 月,第二次是 2024 年 3 月,半年一更,频率稳定。

a16z 的评选方法是,基于 Similarweb、Sensor Tower 的数据,每 6 个月排一次名,榜单分成 2 部分:

全球 AI 产品 Top100 出炉!只有一个国产应用进前十

▲网页端前 50

▲移动端前 50

网页端和移动端的 TOP10 里,美图秀秀国际版 Meitu 属于国产,靠粘土滤镜爆红的 Remini 最开始也是出海产品,后被一家意大利公司收购。

接下来我们分门别类地谈谈,首先是通用型 AI 助手。

第三次了,ChatGPT 还是遥遥领先,在网页和移动端都拿下第一,绝对的 killer app

与此同时,ChatGPT 不如对手们增长势头猛烈。谁才是最好的 AI 助理,尚且没有定论。

▲增长指数

黄仁勋爱用的 AI 搜索 Perplexity 在网页端排名第三,并首次入围移动端榜单,正好排在第 50 名,差点名落孙山。

Perplexity 超过 7 分钟的用户平均停留时间,甚至略胜于 ChatGPT

比起 等传统搜索,Perplexity 直接提供简洁、实时、相对准确、可以引用信息来源的答案。数据说明,AI 搜索的形式在一定程度上走通了。

OpenAI 的 Sam Altman 也对这种形式保持认可,然而,OpenAI 的 AI 搜索 SearchGPT 还在小范围地内测,用户比 CEO 更着急。

ChatGPT 定位最像、竞争更直接的产品是 Claude,来自前 OpenAI 员工创立的 Anthropic。这次,Claude 的排名有所提升,在网页端排名第四,好过上个榜单的第十。

今年 6 月,Claude 推出的新功能 Artifacts 突破了聊天窗口的限制,可以实现实时可视化、互动编程等,拓展了用户与 Claude 交互的方式,好评不少。

▲Artifacts

除了早已功成名就的一代目,通用助手的赛道也有一些后起之秀。

字节跳动这次一次性上榜了五个产品:教育应用 Gauth、开发平台 Coze、通用助手豆包、豆包英文版 Cici、照片和编辑 Hypic。

除了 Hypic,其他都是首次出现在榜单,其中,豆包移动端第 26 名、网页端第 47 名,Cici 也在移动端排到第 34 名。

豆包的功能发展得很全面,并且多端覆盖,使用门槛又低,日常场景够用,所以有这么大的用户量,也在情理之中。论做产品和商业化,还得看字节。

另外,AI 助手 Luzia 首次上榜移动端,一来就是第 25 名。

你可能没有听说过这款产品,它主要服务西班牙语环境,全球拥有 4500 万名用户。最初,Luzia 作为 WhatsApp 的聊天机器人出道,但 2023 年 12 月有了独立的 app

除了什么都能聊的通用助手,消费者对于 AI 还有哪些垂直的、特别的需求?

一个重要的趋势是,大家都在用 AI 搞创作,并且创作的形式越来越丰富了。

a16z 的网页端榜单里,52% 的公司支持图像、视频音乐、语音等的内容生成和编辑。

其中包括 7 家新上榜的公司,排名还不低,视频生成工具 Luma 排在第 14 名,音乐生成工具 Udio 排在第 33 名。

和 Udio 同一个赛道、被称为音乐界 ChatGPT 的 Suno,存在感更是暴涨,从今年 3 月的第 36 名,上升到今年 8 月的第 5 名。

榜单和榜单的纵向比较也很有意思,之前的榜单里,大多数内容生成工具围绕图像。

但现在,图像生成的占比降到了 41%,只有一个图片生成工具(SeaArt)首次上榜,视频生成工具出现了三个新面孔(Luma、Viggle 和 Vidnoz)。

端新增产品

Udio 上线于今年 4 月,6 月则是 AI 视频工具爆发的一月,快手可灵、Dream Machine 的 Luma AI、Runway 的 Gen-3 Alpha 接二连三发布。

可以看到,不过半年,AI 在音乐和视频上的输出质量,都卷出了成绩。

至于移动端,最常见的创作形式是编辑图像、视频。相关工具占到榜单的 22%,是移动端的第二大产品类别。

▲Adobe Express

虽然也有初创公司涌现,但排名更高的,是那些在生成式 AI 浪潮里转型、推出更多玩法的传统创意公司。

其中有我们比较熟悉的名字,美图秀秀国际版 Meitu 在第 9 名,字节跳动旗下的照片和视频编辑器、醒图国际版 Hypic,位列第 19 名。

另外,韩国互联网巨擘 Naver 旗下的相机应用 SNOW 第 30 名,内置了 Adobe Firefly 生成式 AI 的 Adobe Express 第 35 名。

之前 washingtonpost 做过一个调查:人们会和聊天机器人说什么?他们分析了数千次对话,第一是搞黄色,第二是完成家庭作业。

最近也有一款很火的 P 肌肉应用 Gigabody,让你提前看看增肌之后的模样。它会产出很多照骗,也会打击健身人群的自信心,因为很可能练了半天,还不如 Gigabody。

举出这两个例子,是为了佐证 a16z 的结论。

a16z 移动和网页端的榜单,都出现了一个很有意思的新类别:美学和约会。

其中包括三个新入围移动端榜单的工具:LooksMax AI(第 43 名)、Umax(第 44 名)和 RIZZ(第 49 名)。

▲移动端新增产品

LooksMax 和 Umax 采集用户的照片并评分,然后给出建议,提升你的魅力。Umax 甚至会给出一个「满分模板」,也就是 AI 眼里你的完美模样。

LooksMax 不仅照顾到了颜控的看脸需求,也会分析用户声音的吸引力。

但它们的用户规模并不大,LooksMax 超过 200 万,Umax 在 100 万左右。

可能和这个赛道太卷有关,上网随便搜搜能够找到大量身体美颜滤镜,减肥、增肌、健身、变胖、换衣服,AI 都能帮忙,我们不再需要在 B 站学习复杂的 PS 教程

但这些应用的套路又都很类似,靠订阅赚钱,能赚多少是多少,Umax 每周收费 4.99 美元,LooksMax 每周收费 3.99 美元。

如果说 LooksMax 和 Umax 是认识更多发展对象的敲门砖,下一步就该用 RIZZ 了。

笨嘴拙舌的用户,可以用它提升回复约会 app 消息的水平。上传对话截图、个人资料等,RIZZ 都可以教你说些高情商表达。

古代的邹忌问身边人「吾与徐公孰美」,童话里的皇后问魔镜谁是世界上最好看的人,现在的人们则在问 AI:我怎么变得更帅、更漂亮、更有魅力,怎么不算一种科技与狠活呢?

食色性也,情感关系未必在人和人之间,也可以是人机。这次,AI 伴侣应用 Character.AI 排在移动端的第十,上次是第十六。

其实,上榜的还有一些尺度更大的 AI 伴侣应用,包括 Janitor、SpicyChat、candy.ai、Crushon 等,但 a16z 没有特别强调出来。

拿 a16z 今年 8 月的榜单和今年 3 月相比,近 30% 的公司是新公司。

如果再拿今年 3 月和去年 9 月的榜单相比,那么这个数字是 40%。

可见 AI 产品竞争之激烈和残酷,新一代 AI 原生产品和公司的发展速度,前所未有地快。

下一个爆款的 AI 产品,可能会是什么?答案或许在社交产品 Discord 出现。

a16z 发现,Discord 的流量,能够体现一个产品有没有潜力,尤其在内容生成方面。

Discord 的好处是,提供了服务器和交流社区,开发者无需构建完整的前端产品,所以它很适合作为一个沙盒,用来验证 PMF(产品与市场契合度)。

很多产品都是从 Discord 起步,构建社区,测试功能,积累用户,然后才有自己的独立,比如 Suno 和

时至今日,Midjourney 还是所有 Discord 服务器邀请流量的第一名。

▲ 在 Discord 受欢迎的 AI 公司

截至 7 月,10 家 AI 公司在所有 Discord 服务器邀请流量中排名前 100,与 1 月相比,其中一半是新秀。

AI 继续发展下去,未来可能连 app 的概念都会消失,人手一个 agent,AI 主动帮我们解决需求,但现在,我们还是从被用户选择的 app 中,一窥 AI 的可用性如何被定义。

常言道「不要创造需求」,产品的成功不在于通过广告等人为方式制造需求和虚假繁荣,而是找到并满足已经存在的、真实的需求。

AI 也是这样,融资、刷屏、炒作之后,依然是沉默的大多数,做出最诚实也最落地的投票。其中,有没有你正在使用并欣赏的产品呢?

We crunched the data to find out: Which gen AI apps are people actually using? And which are they returning to, versus dabbling and dropping?


2024 年 3 月:

Thousands of new AI-native companies are vying for attention. We crunched the data to find out: Which generative AI products are people actually using?


2023 年 9 月:
https://a16z.com/how-are-consumers-using-generative-ai/

Claude 3.5 VS ChatGPT-4o 生成 Web 小游戏实测对比

By: Anonymous
19 June 2024 at 20:57

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

经过了一年的时间,Claude 从 2.0 版陆续升级到 3.5 Sonnet 版本〔2024/6〕,在 Claude 3.5 Sonnet 中推出了几个显而易见的改进:

你只要免费注册登入一个「 Claude 」账户,就能开始使用最新的 Claude 3.5 Sonnet 模型,然后别忘了进入「Artifacts」功能,试试看直接在对话中生成你需要的网页小工具、小,乃至于简单的 PPT。

下面我会实际测试这些成果,并且与 制作出来的版本做对比,提供有兴趣的朋友参考。

我用下面这个共同指令,来测试看看 Claude 3.5 与 ChatGPT-4o 是否可以「直接」做出可用的乱序抽签网页小工具。

让我先来试试看 Claude 3.5 Sonnet 结合「Artifacts」的效果。直接输入上面的指令,Claude 就会分析我的需求,开始撰写源码,并立即生成可以预览、互动的 HTML 文件,而右边窗口可以直接进行操作。

看起来 Claude 3.5 Sonnet 只要简单的指令,就能很好的理解我的需求,并且可以自己设计需要的架构与源码,我并没有讲得太细,实际呈现出来的效果都是 Claude 3.5 Sonnet 自己分析出来的。

接着我们试试看 ChatGPT GPT-4o 做出来的成果如何?用同样的指令,ChatGPT 也可以根据我的需求自行分析网页需要的架构、逻辑,然后自行写出源码。

不过,ChatGPT 目前没办法像 Claude 那样在右方直接预览成果。

所以我请 ChatGPT 直接打包成 HTML 文件让我下载。

下载后,下面是 ChatGPT 制作出来的版本。界面与操作也很不错,并且自己加上了一个可以设置数字范围的额外字段。

和 Claude 3.5 Sonnet 版本对比,你觉得哪一个比较好呢?

接着,我测试了设计贪吃蛇网页小游戏,用下面的指令,直接套用在 Claude 和 ChatGPT 上。

把指令输入 Claude 3.5 Sonnet,同样的,AI 自动分析需要的架构、逻辑,一次问答,就生成出右方一个可以操作互动的贪吃蛇小游戏。

游戏中可以用键盘控制方向,有吃球长大的效果,也有失败的机制,是一个可玩的小游戏。

同样的指令输入 ChatGPT GPT-4oChatGPT 这次写出一串很长很长的源码,我同样请其直接打包成 HTML 文件给我,同样是一次生成,中间没有经过任何修改。

下面是 ChatGPT 制作出来的贪吃蛇小游戏,多出了一个「控制游戏快慢」的功能,而其他部分则和 Claude 的效果一样。

从前面两个实际测试案例来看, Claude 3.5 和 ChatGPT-4o 都能「一次生成」上述的网页小工具、小游戏,他们都会完整的分析我的需求,AI 自行进行需要的设计逻辑分析,然后自动写出完整的源码。

不过 Claude 3.5 Sonnet 多出了一个 Artifacts 功能,可以直接在右方预览效果,确实看起来很方便,如果要进一步修改,也会更加简单。

例如,我下面尝试让 Claude 3.5 Sonnet 制作 PPT,我先提供一些资料,请 AI 设计大纲并产出 PPT,Claude 3.5 Sonnet 就制作出一个可以在右方预览的版本,而且是真的可以翻页。

但我想调整风格,所以我上传一张风格图片,请 Claude 3.5 Sonnet 分析,并据此改变 PPT 风格,没想到效果居然非常好!〔如下图〕

看起来「 Claude 3.5 Sonnet」结合 Artifacts,确实值得要对源码、网页、文件有需求的朋友试试看。

LINE 更新群组「AI 信息摘要」怎么用?如何开关群聊重点总结与常见问题

By: Anonymous
21 March 2024 at 17:32

DUN.IM BLOG

DUN.IM BLOG

有不少人 群组都多出「 信息摘要」新功能,能够利用 AI 功能快速总结群组信息,不过你是否也发现并不是每个 LINE 群组都会出现,到底是什么情况才会跳出 LINE 信息摘要功能呢?本文就来替大家全面整理和解惑 LINE 的「AI 信息摘要」功能相关问题。

LINE AI 信息摘要是一项利用 AI 技术自动总结整理 LINE 群组信息的功能。当 LINE 群组内的信息累积到一定程度时,无需用户主动操作,AI 会在指定时间自动生成群组重点摘要,就可以替用户快速整理之前没参与到的群组重要讨论与话题,还能快速了解相关内容,方便跟上群组内对话。

至于 LINE 替群组加入 AI 信息摘要功能,主要有以下几个目的:

想使用 LINE AI 信息摘要功能方法也相当简单,只要打开群组,就会看见右下角会出现「AI 信息摘要」图标按钮,点击后就可以看见查看摘要结果。

LINE 更新群组「AI 信息摘要」怎么用?如何开关群聊重点总结与常见问题

「AI 信息摘要」功能不管是 LINE 社交管理者或所有成员,都能随时浏览信息摘要功能。只有群组内信息累积到足够量,群组就会自动在某些时间自动统整为摘要,而且 LINE AI 信息摘要功能每天最多只有 4 次使用频率。

要是在 LINE 社交内没看见群组右下角显示「AI 信息摘要」图标,有底下几个原因造成:

要是想关闭 LINE 信息摘要功能显示,可以手动通过 LINE 群设置内停用「在结果中显示此群」及「向所有人公开」任一开关后,就可以直接关闭信息摘要。

不过要提醒「AI 信息摘要」功能仅限管理者设置移除,且关闭后就无法恢复,至于群组成员无法自行决定手动关闭「AI 信息摘要」功能显示,按钮会一直停留在右下角。

LINE 信息摘要使用 的生成式 AI 模型,有可能会发生摘要结果不是 100%准确,用于摘要的信息不会保存在 OpenAI 中。

目前 LINE 群组的 AI 信息摘要无法提供给群组成员关闭,只能够由管理者手动关闭「在查找结果中显示此群」及「向所有人公开」任一群功能才能隐藏停用。

如果被摘要的信息被删除或收回,对已生成的信息摘要结果不会有任何影响,依旧能看见摘要记录。

信息摘要功能是阶段性功能更新,要是你的 LINE 未出现此功能,请稍加等待。

信息摘要功能仅限于主群组使用,不支持子群组。

Mistral AI -「欧洲版 OpenAI」逼近 GPT-4 的新模型发布

By: Anonymous
1 March 2024 at 18:35

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

昨晚,号称「欧洲 」的 Mistral , 发布了其最新的顶级文本生成模型 Mistral Large。

这一模型具备顶级的推理能力,可用于处理复杂的的多语言推理任务,涵盖文本理解、转换和代码生成。

简单画重点:

附上体验地址:https://chat.mistral.ai/chat

Mistral Large 在多项基准测试中表现优异,成为全球排名第二的可通过 API 广泛使用的模型,仅次于 GPT-4,并将其他主流模型甩在身后。

与 LLaMA 2 70B、GPT-4、Claude 2、Gemini Pro 1.0 等一众主流模型对比,Mistral Large 在推理能力上展现出强大的实力。

在 MMLU、Hellas、WinoG 等多项常识和推理的基准测试中,Mistral Large 紧随 GPT-4 之后,远超其他模型。

在法语、德语、西班牙语和意大利语的 HellaSwag、Arc Challenge 和 MMLU 基准测试中,Mistral Large 的表现明显优于 LLaMA 2 70B。

在编码和数学任务中,Mistral Large 同样表现出色。多项基准测试依然是遥遥领先。

此外,Mistral AI 还发布了针对延迟和成本优化的新模型 Mistral Small,性能超越 Mixtral 8x7B,但延迟更低。

在 Mistral AI 看来,Mistral Small 将是一个介于模型和旗舰模型之间的理想中间选择,享有与 Mistral Large 相同的创新优势,尤其是在 RAG(检索增强生成)启用和函数调用方面。

不过,Mistral Small 模型宣称的低延迟特性与 Mixtral 8x7B 相比提升有限,但其成本却显著增加,其中输入成本高出 2.8 倍,输出成本更是高达 8.5 倍。

Mistral Large 现已在 La Plateforme 和 Azure 平台上可用,并集成到了 Le Chat 中。Le Chat(法语直译为猫)是一个类似 的 AI 聊天机器人,支持多语言交流。

用户可以在 Mistral Small、Mistral Large 以及 Mistral Next 三种不同的模型之间进行选择。不过,Le Chat 并不支持实时联网功能。

发布后不久,由于涌入体验的人群数量超出预期,Le Chat 直接崩溃了,截至发稿前,Le Chat 已恢复运行。

我们也第一时间体验了一下 Le Chat。取决于语言本身的复杂性和接受训练的数量和质量,Le Chat 在英文方面的表达能力较强,在其他语言方面,表达能力可能会因语言而异。

面对中文脑筋急转弯的拷问,Mistral Large 明显有点懵,缓了好一阵都没给出答案。

问题:蝴蝶,蚂蚁, 蜘蛛, 蜈蚣,他们一起工作,最后哪一个没有领到酬劳?

但换成英文,它就立马变身解题高手,答案条理清晰,逻辑满分,上升到「以人类为中心的工作和奖励视角」,但中文语境的脑筋急转弯可不按常理出牌,毕竟「蜈蚣」不受禄。

鸡兔同笼问题对 Mistral Large 来说,还没到小菜一碟的程度。线性方程组一摆,回答倒是很快就出来了,但答案中 16 只鸡和 19 只兔子并不正确。

问题:鸡兔同笼,共 35 只头,94 只脚,问鸡兔各多少?

这是一个经典的数学问题,可以使用线性方程组来解决。
假设鸡的数量为 x,兔子的数量为 y,则可以列出以下两个方程:
1. x + y = 35 (鸡和兔子的总数量为 35 只)
2. 2x + 4y = 94 (鸡有 2 只脚,兔子有 4 只脚,所以总共有 94 只脚)
将第一个方程中的 x 表示为 y 的函数,得到 x = 35 – y,代入第二个方程中得到:
2(35 – y) + 4y = 94
解方程得到 y = 19,代入 x = 35 – y,得到 x = 16。
因此,鸡有 16 只,兔子有 19 只。
可以用同样的方法解决后两个问题,答案都是鸡有 16 只,兔子有 19 只。

接着我们让 ChatGPT 给 Mistral Large 出一道数学测试题,上上强度,但整体表现不错:

Mistral AI 成立于去年 5 月份,公司员工仅 25 人,但其大语言模型早已在 Hugging Face 上名声大噪。

此前,我们曾报道过它发布了 Mixtral 8x7B,这款模型一经推出,瞬间引爆了开源界,让无数开发者夜不能寐。

虽然只有 46.7B 的参数规模, 擅长以小博大的 Mixtral 8x7B 在众多基准测试中的表现却能与 Llama 2 70B 和 GPT-3.5 媲美,甚至在某些测试中还略胜一筹。

Mistral AI 的成功秘诀在于它巧妙地融合了 AI 领域的三大核心要素—人才、数据、算力。

《经济学人》透露,Mistral AI 创始人和技术骨干均来自法国精英技术学院,并在 和 Meta 等科技巨头的研究实验室积累了宝贵的业界经验。他们是全球为数不多,真正掌握如何培训前沿模型技术的专家。

其次,数据是 Mistral AI 成功的另一个法宝。Mistral 在模型数据培训上独具匠心,例如,模型能够有效地过滤掉重复或无意义的信息,使得模型更加精简高效,参数规模仅数十亿。

这就意味着,普通用户甚至可以在自己的个人电脑上轻松运行 Mistral AI 的模型。

对于 Mistral Large 的到来,图灵奖得主 Yann LeCun、以及英伟达高级科学家 Jim Fan 等一众大佬也纷纷在 X 上送上了祝贺。

目前,Mistral AI 的估值已经超过 20 亿美元,其背后的投资阵容的豪华程度,与世界顶级企业相比也毫不逊色。

从美国顶尖的风投公司如光速创投、红点创投、指数创投,到硅谷的风险投资巨头 a16z、英伟达、Salesforce、法国巴黎银行等,都对 Mistral AI 青睐有加。经过数轮融资,Mistral AI 也早已迈入了 AI 独角兽的行列。

微软昨天也宣布与 Mistral AI 建立新的合作伙伴关系,承诺和 Mistral AI 之间的合作集中在以下三个关键领域:

超算基础结构:微软将通过 Azure AI 超算基础结构支持 Mistral AI,用于 AI 训练和推理工作负载。

扩展市场:微软和 Mistral AI 将通过 Azure AI Studio 中的 MaaS 和 Azure 机器学习模型目录,向客户提供 Mistral AI 的高级模型。

AI 研发:微软和 Mistral AI 将探索合作,为指定的客户开发专有模型,甚至包括欧洲公共部门的工作负载。

但微软这一举动遭到了网友的质疑。X 用户 @osxzxso 暗讽微软试图采取一种「盘根错节」的策略来垄断市场。马斯克也在评论区以哭笑不得的表情包表示赞同。

Spreading Nutella on both sides of the bread I see
我看到在面包的两面都涂了花生酱

值得一提的是,细心的网友观察到,在 Mistral AI 推出新模型之后,其官方上关于对开源社区承诺的相关内容已经悄然消失,且新模型也不支持开源。

但 Mistral CEO Mensch 在接受《华尔街日报》采访时表示,Mistral AI 并未违背开源的初衷,而是采用同时推进商业化战略和维持开源承诺的双重策略。

显然,在构建商业模式和保持我们的开源价值观之间,我们需要找到一个细小的平衡点。我们希望发明新事物和新的架构,同时也希望向我们的客户提供更多可销售的产品。

Adobe Express – 移动端整合 Firefly 生成式 AI ,一键生成图文内容

By: Anonymous
9 March 2024 at 23:00

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

Adobe 正在为移动设备带来更多自家 Firefly 生成式 功能。新的 Adobe Express 程序测试版其中纳入了 AI 驱动功能,如生成填充以及输入文字指令生成影像的效果,还支持与电脑版 Express 的即时协作,最终将取代现行标准版的 Adobe Express 应用程序。

Adobe Express 服务是以模板为基础运作的。与 Canva 一样,它专为快速轻松地建立新内容而设计,你只需要选定模板,拖曳放置一些素材,就能拥有看起来具专业度的平台贴文、活动传单或

现在,Firefly 整合则更进一步,因为生成式 AI 允许你输入文字提示以建立或修改图像。你还可以使用自然语言建立风格化的字体或生成全新的模板。

去年年底,生成式 AI 出现在电脑版 Adobe Express 上。现在,借助新的 Adobe Express 应用程序测试版,用户可以在型手机或平板电脑上访问所有原本电脑版上才有的 AI 功能。应用程序测试版还附带了一些有趣的新功能,包括即时电脑协作以及从 Photoshop 或 Illustrator 存取文件的能力。

Adobe 还在 iPad 版本的 Photoshop 中提供 AI 功能。尽管如此,Adobe 的大多数移动产品都缺乏 Firefly 整合,生成式人工智能可能需要数年时间才能在整个 Adobe 产品群组中找到自己的出路,因为该技术仍然很新,并且仰赖于云端来处理。

请注意,你已经可以从移动设备访问 Adobe 的网页版 Firefly 。这个测试版值得注意,因为它是专门为移动设备设计的,并包含协作功能,它还有助于让 Express 从众多以模板为基础的设计应用程序中脱颖而出。Canva 包含一些 AI 工具,但它不像 Express 那样重视 AI 功能。

No Description

你可以从 Play 商店安装 Adobe Express 应用程序测试版〔安装点这里〕,前提是你必须拥有相容的 设备;如果你是 用户,则必须加入候补名单排队。生成式 AI 功能在测试期间免费提供,但将来需要 Creative Cloud 会员资格。你保存到普通稳定版的 Adobe Express 应用程序的项目不会转移到此应用程序测试版,但 Adobe 承诺在 AI 增强测试版结束测试期后可以迁移文件和

关于云服务流量费比较

By: Anonymous
5 March 2024 at 13:12

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

使用云服务时,一个常被忽视的成本就是流出费。这指的是将数据从云服务提供商的发送到公共互联网的费用。

这里整理了常用服务的流量费用,可以快速了解不同云服务的流量费用差异,这不仅是单纯 VPS 比较,而是各类的云服务都拿出来比,像是存储类的以及 CDN 类的都有放进来。

如果超出了流量,每家供应商收取的 1TB 数据流出费用如下:

小提醒: 实际价格可能因地区和其他本文未列出的因素而有所不同。为方便比较,这里选择了最靠近北弗吉尼亚(美国)或法兰克福(德国)的区域,并根据统一的使用情况假设估算出这些价格。请务必查看供应商的定价页面以获取最新信息。

数据流出是指数据离开某个网络,更确切地说,是数据离开你的云服务提供商网络进入公共互联网。这可能是从云服务商到用户的数据传输,或是从一家云服务商到另一家的数据传输。

云服务商通常根据从其网络流出的数据量按 GB (1 GB等于1024 MB)或 TB (1 TB等于1024 GB) 计费收取每月数据传输费用。

从云服务商的角度来看,有两种数据传输类型:

实际操作中,可能是这样的:

要下载文件,用户设备需要从云服务商网络请求数据,而云服务商则需要将数据发送给用户(或内容分发网络等中间商)。这就会产生数据流出费用。

云服务商之所以收取数据流出费,是因为从其网络传输数据需要成本。他们需要为传输数据所需的基础设施和带宽付费。

不过,数据流出费也可能是为了阻止某些使用场景,比如跨云服务商大量传输数据。

大多数云服务商都提供一定的免费流出数据量,比如整个账户每月 100GB 的免费流量,或者每台服务器每月 1TB 的免费流量。

因此,根据你的使用情况和选择的云服务商,你可能完全不用为数据流出付费。

在尝试降低数据流出费用时,可以考虑以下几个因素:

Backblaze 的带宽费用算法颇有趣,每个月给数据量的三倍大小当作免费带宽,没记错的话因为 Cloudflare 是 Backblaze 的官方合作伙伴,两边的传输费用不计费,如果数据是可以公开的,可以通过这个方式免费链接出来;如果真的走一般的流量输出,收费是 US$0.01/GB (所以换算后是 US$10/TB)。

三家常被摆在一起的 VPS (LinodeDigitalOceanVultr) 的带宽也都是 US$10/TB。

以前没注意到的是 OVH CloudScaleway 的带宽费用是免费的?另外 Hetzner 虽然要收费但也很低?有机会可以测试看看,看一下质量如何?

为什么使用匿名服务,解析不同地区用户的偏好

By: Anonymous
26 February 2024 at 16:02

DUN.IM BLOG

DUN.IM BLOG

我们还年轻,可不想看到这个世界处在毫无自由、隐私的边缘。

问题并不是人们使用 「匿名服务」 的唯一原因。事实上,使用 「匿名服务」 的原因多种多样,从规避到购买更便宜的机票等,五花八门,全凭用户自己决定。

使用 「匿名服务」 的方式也不尽相同:有些人选择在所有上启用 「匿名服务」,而有些用户则只在几个选定的网站上启用它,例如在 上。

为了更好地了解是什么促使人们使用 「匿名服务」,用户最看重哪些功能,以及他们在互联网和法规迥异的国家是如何使用 「匿名服务」 的,我们进行了一项调查,对 500 多名不同 「匿名服务」 服务的用户进行了问卷调查。

今天,我们将公布我们的调查结果,希望不仅能让我们多了解 「匿名服务」 的使用情况,还能让我们了解人们对隐私保护的整体态度。

在使用 「匿名服务」 的受访者中,近三分之二(62.91%)的人每天至少使用一次 「匿名服务」。约 20% 的受访者(五分之一)表示,他们「每周使用几天,约 17% 的受访者表示「每月使用几天

说到人们更愿意通过 「匿名服务」 连接互联网的原因,主要是「保护网上隐私和安全」,超过 70% 的受访者都提到了这一点。」

访问受区域限制的内容「是第二大受欢迎的选择,有 46%受访者勾选此项。」

绕过审查和防火墙「排在第三,有 42.1%的受访者选择了这一原因。其余原因依次为」

提高网速「(18.6%)和」节省网购开支「(14.2%)。

还有约 14% 的受访者选择了」其他原因「,这意味着他们使用 「匿名服务」 的全部或部分原因未被列入列表中。

我们注意到,根据用户使用 「匿名服务」 的频率,就能总结出一些特点。事实证明,人们使用 「匿名服务」 的频率越低,他们对隐私和安全的重视程度就越低,而对访问区域限制内容的能力却越看重。

例如,在表示每月只使用几次 「匿名服务」 的受访者中,约 72% 的人将「访问受区域限制的内容「作为使用 「匿名服务」 的原因。相比之下,在每周连接几次 「匿名服务」 的用户中,约有相同比例(73%)的人选择保护网上安全和隐私作为使用 「匿名服务」 的原因。

每天使用 「匿名服务」 的人也是如此,约 73% 的人说他们使用 「匿名服务」 是出于安全和隐私原因,约 46% 的人说他们使用 「匿名服务」 是为了绕过审查和防火墙

人们对 「匿名服务」 模式的选择也有明显差异,这取决于他们是每天、每周或者每月使用几次。那些使用 「匿名服务」 日常浏览网页的用户(83%)大多会对除特定网站以外的所有网站启用 「匿名服务」。

使用 「匿名服务」 的频率越低,就越有可能只为特定网站打开 「匿名服务」。超过 70% 的受访者表示,他们每个月只使用几次 「匿名服务」,只为特定网站激活 「匿名服务」。在每周使用几次 「匿名服务」 的受访者中,超过一半的人承认自己也会选择性激活 「匿名服务」 服务。

网络上有许多 「匿名服务」 ,每家都试图用特别优惠和独家功能来吸引更多用户。但哪些功能最重要呢?根据我们的调查,大多数人(73.7%)认为 「匿名服务」 的「无记录政策和安全隐私记录」非常重要。

无记录政策实质上是 「匿名服务」 向用户承诺,当用户连接到服务时,公司不会保留任何在线活动记录。这意味着用户的在线活动对第三方(如 ISP、政府或黑客)是保密的。

比如,「DUN.IM 匿名服务」 就不会保留任何个人记录,我们严格遵循无日志政策。

其次是「匿名服务」 使用的加密和安全协议67.8%)。协议越先进,就越不容易出现漏洞或被审查机构的封锁。

例如,DUN.IM 使用的加密协议,使 「匿名服务」 流量看起来几乎与正常流量无异。这反过来又增加了检测难度。超过半数(52.6%)的受访者认为,「服务器的数量和位置」是选择 「匿名服务」 的重要因素。这一点很难反对,因为 「匿名服务」 服务所拥有的服务器位置越多,用户的选择就越多,平均连接速度就越高。

我们的调查结果显示,大多数人(超过受访者总数的四分之三)在购买 「匿名服务」 后,会在台式机和移动设备上同时使用。

有趣的是,对于那些只在移动设备上使用 「匿名服务」 的用户来说,最重要的功能似乎是「加密和安全协议」。要大胆猜测,可能原因在于公共 Wi-Fi 网络带来的安全风险,而我们更有可能在使用手机或平板电脑时连接到这些网络。

对于那些只在台式电脑上使用 「匿名服务」 的人来说,他们最优先考虑的是「无日志政策和隐私保护」,其次才是加密和安全协议。

在对进行鸟瞰观察后,我们决定对两个截然不同的地区进行放大,我们认为这两个地区的使用方式也将截然不同:美国和伊朗。

对于美国的 「匿名服务」 用户来说,「保护网上隐私和安全」是他们选择使用 「匿名服务」 的最重要原因。高达 87.8% 的美国受访者选择了这一选项。在此背景下,所有其他原因都显得苍白无力,但仍值得一提的是。

选择访问受区域限制的内容(31.71%)和绕过审查和防火墙(30.49%)作为理由的人数大致相同。每五位受访者中就有一位(20.73%)表示,他们使用 「匿名服务」是为了提高网速和性能

虽然这听起来可能有悖常理,毕竟,当用户启动 「匿名服务」 时,「匿名服务」 服务会通过不同的服务器对个人流量进行重新路由,这意味着要通过的服务器多了一个,但在某些情况下,「匿名服务」 可以提高网速。

例如,当用户的 ISP(互联网服务提供商)故意根据用户在线活动(如或 Torrenting)对连接进行节流时,就会出现网速不好的情况。约 26% 的受访者选择了其他原因。

说到伊朗,互联网自由度一直排名垫底的国家之一,绝大多数受访者(超过 73%)认为「绕过审查和防火墙」是使用 「匿名服务」 的重要原因。其他原因则远远落后。

例如,38.5% 的受访者表示他们使用 「匿名服务」保护隐私和安全,34% 的受访者使用 「匿名服务」提高上网速度和性能,30.8% 的受访者承认使用 「匿名服务」访问受区域限制的内容。

另一个显示美国和伊朗 「匿名服务」 用户差异的问题是,他们对 「匿名服务」 最重要功能的看法。美国用户将「无日志政策和隐私保护」视为交易的破坏者或交易的达成者,而伊朗用户则最看重服务器的数量和位置「以及」加密和安全协议

对伊朗人来说,「匿名服务」 不记录用户活动和保护隐私仅排在这两项之后。

调查结果证明,「匿名服务」 在当今的数字环境中发挥着各种关键作用。「匿名服务」 服务不仅是提高网络隐私和安全的,也是绕过审查、访问受区域限制内容的关键手段,有时甚至还能提高网速。

虽然使用 「匿名服务」 的主要原因仍然是隐私和安全,但地区差异凸显了不同的需求和挑战。

例如,在美国,重点主要放在隐私和安全上,反映对个人数据保护的担忧。

相反,在互联网自由受到严重限制的伊朗,重点则转向绕过审查和访问更广泛的内容。这意味着,我们的研究结果不仅强调 「匿名服务」 对不同互联网环境和用户需求的适应性,还暗示了影响技术使用的更广泛的社会政治动态。

归根结底,全球各地对 「匿名服务」 的依赖与日俱增,标志着人们对网络隐私的意识在不断增强,也标志着保护个人数字空间安全的集体行动。

我们还年轻,可不想看到这个世界,处在毫无自由、隐私的边缘

❌
❌