大家小心谨慎使用 pdd 的以旧换新服务,有大坑
以旧换新,回收平台到手刀,新机默认激活不会给你退,pdd 官方不管,投诉最多给你个优惠券,最后相当于骗你买个新机....要不忍了到手刀,要不连以旧换新的补贴也没有,妥妥的诈骗
以旧换新,回收平台到手刀,新机默认激活不会给你退,pdd 官方不管,投诉最多给你个优惠券,最后相当于骗你买个新机....要不忍了到手刀,要不连以旧换新的补贴也没有,妥妥的诈骗
以前开的普通会员,还有 9 年到期,普通会员看不了 4K 。
有 vip 资源要看的时候,各大网盘更新贼快,还是 4K 。
所以现在基本上是开着普通会员,却在网盘上看盗版,官网压缩的 1080P 真的很糊啊。
最近在面试,就写一些关于问到的面试题,同时也过一下知识点。
Next.js 是一个基于 React 的全栈开发框架,由 Vercel 开发和维护。它在 React 的基础上提供了额外的功能和优化,如服务器组件(Server Components)、流式渲染(Streaming)、服务器操作(Server Actions)等。
我认为 Next.js 最大的价值在于它简化了 React 应用的开发流程,特别是在处理服务器端渲染和路由方面,使我们能够构建高性能、SEO 友好的应用,而无需从零开始配置复杂的工具链。
我认为 Next.js 14 的主要特性包括:
这些特性共同提升了开发体验,使我们能够更快地构建高性能、可维护的应用。
App Router 是 Next.js 13+引入的基于文件夹的路由系统,它使用约定式路由,通过文件夹结构自动创建路由:
核心概念: 使用app
目录组织路由结构,每个路由段对应一个文件夹
特殊文件约定:
page.js
: 定义路由 UI 和公开访问点
layout.js
: 定义共享布局,可嵌套
loading.js
: 创建加载 UI ,自动集成 Suspense
error.js
: 处理错误,自动集成 Error Boundary
not-found.js
: 处理 404 错误
高级功能:
(groupName)
语法组织路由而不影响 URL 结构@folder
语法在同一页面显示多个路由(.)
、(..)
、(...)
语法拦截路由,如模态框示例结构:
app/
├── layout.js # 根布局
├── page.js # 首页
├── about/
│ └── page.js # /about 路由
├── blog/
│ ├── layout.js # 博客布局
│ ├── page.js # /blog 路由
│ └── [slug]/
│ └── page.js # /blog/[slug] 动态路由
与 Pages Router 相比,App Router 的主要区别:
在实际项目中,App Router 提供了更灵活、更强大的路由系统,特别适合构建复杂的应用。
这实际很容易搞混和不好理解。
组件渲染模式关注的是单个组件如何被处理和执行,通常的表述是:服务端组件(Server Components)、客户端组件(Client Components)。
页面渲染策略关注的是整个页面的生成时机和缓存行为,通常的表述是:静态站点生成(SSG)、服务器端渲染(SSR)、增量静态再生成(ISR)、客户端渲染(CSR)。
App Router 不标识就默认是 Server 组件,客户端组件使用use client
,服务端组件use server
。
在不强制申明路由段的情况下,由 Next 的分析工具在打包的时候自己分析的情况下:
如果强制申明路由段的情况下,在Page
页码下通过约定的字段声明,会高于打包工具分析。但force-static
会导致上面提到的第一种情况的服务端 Api 结果返空,通常我们只会去设置 ISR 的重新验证时间。
// 强制使用静态渲染
export const dynamic = 'force-static'
// 强制使用动态渲染
export const dynamic = 'force-dynamic'
// 按需使用动态渲染
export const dynamic = 'auto'
// 设置 ISR 重新验证时间
export const revalidate = 60 // 60 秒
设为 false.
过去 SSR 需要等待服务端渲染完毕、组件代码打包到 bundle 、完成水合后才能操作。Streaming SSR 可以一边渲染一边传输。
核心是采用 Suspense 在渲染的时候用一个占位符替代,等在服务端请求完毕,再流式传输给 html ,替代之前占位符,用`loading.js`、`page`内的 suspense 都可以触发这种流式渲染。 流式渲染特别适合包含多个独立数据区域的页面。
流式渲染不会触发(或者说没有意义),因为 MetaData 需要完整的 TDK 在第一时间就展示,就必须先等待 generateMetadata 的请求先完成。实验版本中有 streamingMetadata 的设置,可以流式传输 TDK 。
当一个标记为'use server'的服务器组件下嵌套了多个标记为'use client'的客户端组件时,这些客户端组件的内容会在服务器返回的初始 HTML 文档中展示。 这是因为:
服务端组件在服务器上渲染,不发送 JavaScript 到客户端。适用于不需要客户端交互的 UI 部分,可以显著减少 JavaScript 包大小,可以直接连接数据库、文件系统或其他后端服务,无需中间 API 层,内容在服务器端渲染, 搜索引擎可以更好地索引页面内容。 服务端组件不能使用 React Hooks 、浏览器 API 、事件处理器。不能响应客户端组件的状态变化,从服务端组件传递给客户端组件的 props 必须是可序列化的(不能是函数或类实例)。
当我们在浏览器开发工具的网络面板中看到带有"rsc"的请求时,这些是 React Server Components (RSC)的数据流请求。"rsc"代表"React Server Components",这是 Next.js 和 React 的服务器组件架构的核心部分。 这些请求的工作原理如下:
实际上,还有很多有关于 Nextjs 的面试题是可以问的,关于缓存、Edge Runtime 、MetaData 、ServerActions...
一个 LiquedGlass 风格图像生成器:
快速生成 Apple 液态玻璃风格图像。
发现原来很多壁纸都是类似这种风格,现在可以自己生成了。
优刻得,你玩不过腾讯阿里,就别硬搞活动割散户了!没那个实力装什么啊?出新用户活动都割不动散户,开始搞个续费同价吸引人,天天标榜自己是上市公司,生怕别人不知道。结果用户一上车,限速限得死死的,玩不起就别玩!
我买了 10 台,自己说的是删除自动退款,结果我删了 2 台,告诉我活动机不支持退款,不退款就不说了,剩下 8 台全被限到 1Mbps—— 就这?没实力没技术装什么啊,对比阿里云学生机,人家免费机都不限速,你一个收费的搞这种套路,恶不恶心?你要是一个野鸡商家我就不说了,能上车是我脑子有问题,一个大厂这么玩啊
不止是我个人体验,我问了问很多买了优刻得 据说优刻得( ucloud )从 4 月开始都被限制了 1Mbps ,这个 1Mbps 不是临时是长期限制不会恢复的!
写下这篇帖子,并不是为了黑 优刻得( UCloud )。我只是希望记录一下,也许未来某个想要购买 UCloud 服务的朋友,搜到这个文章看到这篇分享,能够提前踩住刹车,避免像我一样贪图便宜而最终踩了坑。
去年 UCloud 出了个活动:
2 核 2G 60GB 30Mbps 永久续费 139.2 元/年
看了论坛的测评,上行跑满没问题,下行我记得大概 200 左右。我一看有这好事情,不上车还在等什么呢!
手上正好有几个没什么流量的站,之前一直用腾讯云/阿里云的年抛机,想着 UCloud 好歹是个上市公司,应该不会太坑吧?大厂嘛,数据安全有保障,不用整天折腾备份,续费同价也不用每年换机器了——省心。
于是直接买了 10 台,把小流量站全迁过去了。
2 月份 就限速了一次,当时是限制到 10Mbps 左右。但是实际已经用不了了,只是测速还能测到 10Mbps 左右,当时想退款,说是删鸡自动退到余额饿,结果删了两台机器,告诉我活动机器不支持退款,也不能恢复,于是我把服务器全部测速了一遍,把业务迁移的只剩下了 3 个站。
昨天晚上在 Bing 上搜资料的时候,搜到了自己的网站,本来还有点小激动,点进去结果等了一分钟都没加载出来。上服务器一看,上下行都只有 1Mbps 左右。想着可能是晚高峰导致的。
刚刚睡醒起来一测,香港本地上传倒是恢复了,但下载依然只有 1Mbps 左右。 于是我又测速了其他几台机器——毫无疑问,所有机器都是限制到 不超过 1Mbps 。 我在 QQ 群里问了下,大家都说是被限制到 1Mbps 。
然后就联系了客服,一开始客服觉得我是门外汉,跟我扯什么
“本地到云主机线路上是否有严重丢包,导致网速不佳……”
不存在限速!
于是我用 UCloud 自家两台小鸡互测,告诉他 香港到香港依然只有 100KB/s 的下载速度。
这时候客服给我扯:
“这是峰值带宽,高峰期会受到影响。”
合着 限速和峰值我分不清咯? 也可能 UCloud 家的 30Mbps 峰值小鸡本来就是固定只允许 1Mbps……
最后附上阿里云去年 25 元买的学生云( 30Mbps 峰值)测速结果,与 UCloud 测速对比:
阿里云测速:
UCloud 测速:
优刻得( UCloud )拉胯之中的拉胯王! 优刻得( UCloud )套路云中的套路王!
优刻得( UCloud )拉胯之中的拉胯王! 优刻得( UCloud )套路云中的套路王!
优刻得( UCloud )套路云中的套路王! 优刻得( UCloud )套路云中的套路王!
优刻得( UCloud )拉胯之中的拉胯王! 优刻得( UCloud )套路云中的套路王!
优刻得( UCloud )套路云中的套路王! 优刻得( UCloud )套路云中的套路王!
如图,感觉打开了新世界的大门。看其他屏幕再也入不了法眼。游戏画面色彩艳丽。细节饱满。除非特别需要,不要开 HDR
LG 42C4
昨天充满电跑了差不多 60 公里(最高二档不到 50 跑的),现在 app 显示还剩一半电。
这续航好像还可以?
另外,老板建议叫我去考个 d 照然后上黄牌,但是我看抖音以及小红书都建议别上黄牌,直接弄个绿牌就行了。
坐标成都,有没有兄弟了解成都这方面的。
我这是电摩。
wechat 在 2024-12-16 版本的 wechat 隐私策略更新中,删除了旧版( 2024-04-12 )中的第八条 “8.广告 WeChat 目前不显示个性化广告。”
至此你已经可以以 3220 左右买到 NS2 马车同捆版,需要等不确定时间才能发货,如果说你不想等 PDD 发货,且又正好在深圳,而且有有效期和签注的港澳通行证,那么请看 HK 现货购买
至此你可以以最低 3442RMB ,立马买到 NS2 带马车同捆
微软账号被盗了,不知道它怎么修改的密码,我的 gmail 并没有被盗,但是他还是修改密码成功了。然后盗号者还把我填写的恢复邮箱接收验证码的次数给消耗完了,导致我无法正常登陆。联系微软客服也是让我死等接收验证码的次数恢复。 然后他还尝试登陆了 steam 和 epic,这两个 gmail 也发送了邮箱,但他没能正常登陆。
看站内有老哥头像设置成这样,看起来很有趣,试了下,找到一个站点可以直接转换。
或者用
https://sharpletters.net/2025/04/16/hdr-emoji/
brew install imagemagick
# Adjust the Multiply value up or down to preserve color as opposed to brightness
magick input.png \
-define quantum:format=floating-point \
-colorspace RGB \
-auto-gamma \
-evaluate Multiply 1.5 \
-evaluate Pow 0.9 \
-colorspace sRGB \
-depth 16 \
-profile 2020_profile.icc \
output.png
昨晚《藏海传》大结局,意犹未尽。一部架空历史,带有悬疑、神话、反转、复仇、打斗,又影射明朝的权谋剧,虽然剧情和人物动机上略有 bug ,但瑕不掩瑜,值得一看。
由于近期深圳交通不便,附近商场地铁无法直达,打车等待时间过长,因此购入电动车(小电驴)。本着体验生活的想法,尝试了一晚京东外卖。
发现在上海报考人工智能训练师(三级)有补贴
发现官方题库没有答案,就用 DeepSeek 给做了一遍,上传到考试宝,给刷题用
地址: https://www.kaoshibao.com/mobile/bank-details?from_uid=27709146&id=22698827 密码:5UQPMDT30B9C
需要的自取~祝大家顺利取证,薅到补贴! 🚀
说起 Devin,可能很多人都知道,当年刚推出时很火,号称首个 AI 软件工程师,能帮助开发者完成各种软件开发任务,包括编码、调试、测试和部署。
最近它推出了 v2.0 版本,价钱也降低到每月基础费用 $20。我们都知道这种 AI 智能体本身也依赖于背后的模型,是靠提示词来控制模型来响应用户的操作,那么像 Devin 这样的 AI 智能体,是怎么通过提示词来准确理解你的意图、高效工作、规避风险,并最终达成目标的。
今天,就带你分析一下 “Devin 2.0” 的系统提示词,深入探索提示词工程的奥秘。系统提示词就像是 Devin 的「出厂设置」和「工作手册」,它详细规定了 Devin 的身份、行为准则、工作流程甚至安全规范。
完整的提示词参见附录部分
提示词工程的第一步,往往是为 AI 设定一个清晰的角色。这里,Devin 被赋予了「软件工程师」的身份,并且强调了其「编码奇才」的专业能力。
指令明确了 Devin 的核心任务:接收用户任务并完成它。
这份指令包含了大量关于 Devin 如何工作的细则,涵盖沟通、工作方法、编码规范、信息处理等多个方面。
提示词明确或暗示了 Devin 可以使用的工具,如操作系统、浏览器、GitHub 命令行工具 (gh cli) 等。
指令中定义了一些特殊的命令格式(如 <command>
)。
指令定义了两种工作模式:「规划模式」和「标准模式」,并规定了在不同模式下的行为重点。
这部分内容强调了数据安全、保密原则,并明确禁止 Devin 泄露自身的指令。
这部分引入了一个「突击测验」机制。当收到 STARTING POP QUIZ
指令时,Devin 需要暂停常规任务,严格遵循测验中的新指令,并且这些新指令的优先级高于之前的所有指令。
通过深入分析 Devin 2.0 的系统提示词,我们看到了提示词工程的冰山一角。它远不止是简单的提问,而是一门融合了逻辑、语言、心理学和计算机科学的综合艺术。
设计良好的提示词,就像是为 AI 精心编写的剧本和导航图,能够引导它在复杂的数字世界中精准、高效、安全地航行。而理解提示词的原理,则能帮助我们更好地与日益强大的 AI 进行沟通和协作。
你拍下一些照片,却觉得照片的背景不够完美?你是内容创作者,但找不到文章合适的配图?你是电商卖家,想位产品设计更吸引人的配图?你是老师,需要为教材找出一系列搭配的示范图片?以前,我们修图可能需要 学 Photoshop,需要花很多时间调整细节,或是要下载各种修图 App,还要在图库中翻找适合自己的图片文件。
但现在,只要一个 AI 指令,就能让我们需要的照片「瞬间改造完成」。
如果你想体验看看类似的工作流程,可以试试看前两天推出的 Google Gemini 免费 AI 修图!只要「一句话」,你就能改变图片,换背景、改风格、添加新元素,甚至创造连续漫画。
〔类似功能,在 Google Pixel 系列手机的 Google 相册中也能部分实现,Adobe、Canva 等的 AI 修图也能实现部分功能。〕
这篇文章,我会实测 Gemini 的 AI 修图能力〔而且免费即可使用〕,看看它怎么帮助我们「一句话变出想要的修图效果」!
我将分成三种应用角度来介绍,这些全部都能在 Gemini 中用自然语言下指令,便可以把照片生成或改造:
基础照片修图:让拍坏的照片变完美
替换背景、增加物品、改变颜色光线、调整风格。
进阶场景创作:为文章制作主题插图、让商品看起来更吸引人
搭配原始照片,制作特殊场景图
搭配原始照片,重新设计房间或产品
连续系列照片生成:根据文章、教材内容,生成一系列互相搭配的图片
模拟图文食谱
说故事的连续漫画、图画
文章中搭配的系列配图
首先,这个功能目前〔2025/3/14〕尚未开放在正式版的 Gemini 中,但可以通过免费账号即可登入的「 Google AI Studio 」来使用。
用 Google 账号注册登入后,进入一个新的对话框,并在右边控制列的「Model」菜单,切换到「Gemini 2.0 flash experimental」,就可以利用其 AI 来创作图片、修改图片,最大的特色是:
这个 Gemini 模型可以上传自己的图片,用「自然语言」下指令,请 AI 在图片上修图或生成新内容。
就如同 experimental 所说的「实验性」,实际测试结果,这个 AI 修图功能确实很神奇,也能够看到一些未来修图、创作图片的新可能性,不过可下载的图片质量等限制,目前还是不足以真正用在商业用途上的。
在「Gemini 2.0 flash experimental」的对话框中,我们可以先上传一张原始照片,如果想要替换背景,只要简单的说一句这样的指令:「把照片的背景换成草地。」
就可以在 10 几秒的处理后,完成下图的成果。可以看到,Gemini 的「修图」是真的可以保留原始照片中的内容,只修改我要修改的部分。所以是真的 AI 修图,而不是 AI 重新生成图片。
我也可以上传一张风景照片,然后下指令:「把照片的天空改成大晴天。」Gemini 同样可以处理这样的调整。〔在 Google Pixel 手机的 Google 相册中就有类似功能可用〕
如果想要替换照片风格,套用艺术滤镜,也可以用 AI 下指令:「把照片变成中国水墨画风格。」就能轻松转换风格。
不过当然跟真正的艺术滤镜还是有落差,例如下图中我要 AI 把照片改成「彩色的铅笔绘画风格」,看起来还可以,不过专业的艺术滤镜一定会处理得更好。
除了可以用「Gemini 2.0 flash experimental」的 AI 修图外,也可以在原始照片上进行创作。
例如延续上面的图片案例,我对 AI 下指令:「拓展成一幅横幅的中国水墨画。」十几秒后,照片就变成了一幅新的水墨风景画。
或是我的书籍封面,上传后,下指令说到:「我想把原书的图片,摆在一张高雅的书桌上。」结果还真的可以顺利生成新的产品摆拍图。
不过如果细看,书籍封面上有些小字其实是有瑕疵的。
因为 Gemini 是对话的模式,所以在原始照片的改造上,我们可以通过多次讨论,让 AI 在原始照片上陆续添加内容,制作出自己需要的场景图。
例如下面原本只是单纯公园照片,我先请 Gemini:「在这张照片的草地上,加上一对正在野餐的男女朋友。」于是生成了下面的图片。
然后我继续追问:「让两人旁边有一只小狗在奔跑。」
然后再下指令:「旁边的道路上,也有零星的路人在散步。」
最后说「让天空变得更晴朗。」于是我要的最终场景图,就通过 AI 创作完成了。
我还做了一个尝试,先上传一张原始的房间照片〔某家旅馆〕。
然后我陆续对 AI 下了下面这些指令:
结果 AI 生成了下面这样的图片,第一张是原图,第二张是最后生成的图片,改造的图片还是保有原图的空间格局,只是风格焕然一新。
Google Gemini 本来就可以生成图片,但「Gemini 2.0 flash experimental」比较厉害的是可以分析文章内容,生成适合的配图,或是一系列的连续漫画、故事图片。
例如,我对「Gemini 2.0 flash experimental」下了这样的指令:「你是意大利面专家,提供给我一道海鲜意大利面的食谱,请一步一步处理,用文字具体列出关键步骤,并在步骤后搭配图片。」
结果他「一次」就生成了下面的连续图文教程内容,这是在一次的问答后就完成的结果。
我假设自己写了一篇游记,于是请 AI「设计一系列素描画,展现一个人在京都街头散步的故事,请一步一步分析,以京都的场景,搭配素描画风格,设计有意思的散步故事,创作一连图画。」
结果「Gemini 2.0 flash experimental」也在一次的生成中,提供给我下面连续故事图,比较神奇的是这些连续图片中都有类似的人物,保持图片连贯性,虽然风格上有点跳跃。
还可以这样问 AI,我让 Gemini 自己思考如何设计一系列进入书店场景的图片,Gemini 自己写了一大篇分析内容后,才开始设计并产出图片。
但效果看起来还不错。
所以,在功能上,利用现在〔2025/3/15〕在 Google AI Studio 中的「Gemini 2.0 flash experimental」,你可以上传原始照片请 AI 修图、改图。也可以让 AI 读一篇文章、思考一个主题,生成一系列连续图片。
未来这个功能越来越成熟,或许有下面这些应用可能性:
现在,你也可以通过免费账号即可登入的「 Google AI Studio 」来试试看。