Normal view

There are new articles available, click to refresh the page.
Today — 9 October 2025Main stream
Yesterday — 8 October 2025Main stream

windows 资源管理器的"按名称排序"对文件名中字母数字混合的数字的处理是什么时候改成现在这个样子的?

By: realpg
8 October 2025 at 19:58
realpg:

现在 win11 的行为是: 把文件名中出现的连续数字 作为一个整体数值 按照数值大小比较处理排序

今天惊奇的发现

比如一个文件夹中有以下文件名的文件

A123B56.txt
A97B00.txt

在按文件名排序(升序或者降序)时 他会把这个主文件名当作四个"排序单位"进行比较

A 123 B 56
A 97 B 00

按文件升序排列时

因为 97<123 第二个文件会排到第一个前面

历史庞大的数据归档文件夹里为了兼容以前旧的历史数据(完全按位 ascii 比较)设计的文件夹架构 全乱套了

群晖 DSM 7.3 取消部分机型硬盘限制

By: ok47
8 October 2025 at 17:58
ok47:

群晖官网 10 月 8 日发布 DSM 7.3,取消了 2025 发布的 Plus 、Value 和 J 系列 NAS 机型无法使用第三方硬盘安装和创建存储池的限制。M.2 存储池和缓存的创建仍然需要使用兼容性列表( HCL )中的硬盘型号。

原文:

2025 model-year DiskStation Plus, Value, and J Series running DSM 7.3 will support installation and storage pool creation with third-party drives

Creation of M.2 based storage pool and cache still requires drives on the HCL.

来源:群晖 Newsroom

开源! Vue3 + Nest.js+DeepSeek 开发 AGIC(能豆 AI 批改助手)

8 October 2025 at 14:05
itwangtian:

前言

大家好,我是一诺。国庆假期回老家带了几天,鬼天气忽冷忽热的 我和儿子都生病了。

也没有出去玩,除了在家带娃,空闲时间开源了能豆 ai 批改助手

说下产品背景

我有个朋友是英语老师,常熬夜批改作文。平时在用 DeepSeek 批改作业,可没办法批量修改,很特别麻烦。就希望能有个可以统一管理作业,沉淀教学数据的工具。

于是就有了"能豆 AI"这个产品,集成 DeepSeek 分析能力 ,实现了学生在线提交作业 → AI 实时批改 → 教师人工核实批改的完整业务闭环。

核心功能-ai 批改作业

ca3c8ae8-2f25-48af-a05a-f7db06a437c1.gif

为什么叫能豆 AI 。

我在设计 logo ,不知道叫什么好。这时我儿子在扶着墙学走路,他刚 9 个月刚会爬就想尝试走~ ,那就叫"能豆 AI"吧,因为我儿子的小名叫豆豆。

在线预览

在线体验 http://ai.dslcv.com/

仓库地址

  1. github ➡️ https://github.com/yinuoguan/nengdou-ai-review-helper-web
  2. gitee ➡️ https://gitee.com/wang-tians-laboratory/nengdou-ai-review-helper-web
  3. 接口文档 http://124.222.166.174:3002/api/docs

架构图

总体架构图

业务流程

技术选型

前端技术栈

选择 Vue 3 + TypeScript 作为前端框架,之前一诺维护的老项目都是 vue2 , 这次全面使用 Vue3 开发,发现用 Composition API 写起来更灵活,特别是处理复杂的业务逻辑时。

Vuex 用来管理全局状态,比如用户登录信息。局部状态还是放在组件里,这样代码更清晰。

Element Plus 是因为组件比较全面。配合 Tailwind CSS 做一些个性化的样式调整,开发速度很快。

后端技术栈

后端用的是 NestJS,说实话一开始也考虑过 Express ,但 NestJS 的装饰器和模块化设计确实香,代码组织得很清晰。

JWT 做身份认证,无状态的,扩展性好。Swagger 自动生成 API 文档。

数据存储

MongoDB 选择的原因很简单:作业数据结构比较灵活,不同类型的作业字段差异很大,用文档数据库比关系型数据库方便多了。而且 MongoDB 的查询也够用,性能也不错。

Redis 主要用来缓存一些热点数据和存储用户会话,毕竟内存数据库速度快,用户体验好。

AI 大模型

DeepSeek 是主力,性价比真的很高,批改质量也不错。关键是 API 调用稳定,价格也能接受。

后来又集成了豆包,主要是想让 AI 的反馈更温馨一点,豆包在情感表达这块做得比较好,学生看到反馈不会那么有压力。

两个模型配合使用,DeepSeek 负责专业的内容分析,豆包负责鼓励和引导,效果比单用一个模型好很多。

核心模块

1.班级管理

这是系统的基础模块,解决了教师管理多个班级的痛点:

核心功能:

  • ✅ 创建班级:支持自定义班级名称、描述和邀请码
  • ✅ 学生管理:通过邀请码机制,学生可以自主加入班级
  • ✅ 状态管理:可以暂停/激活学生,灵活管理班级人员
  • ✅ 实时统计:学生数量和作业完成情况一目了然

2. 作业提交与批改模块

状态流转管理:

核心特性:

  • 学生端:专用提交和查看功能,界面简洁易用
  • 教师端:批改和统计管理功能,支持批量操作
  • 管理员端:AI 批改和日志管理,系统监控

3. AI 批改集成

这是系统的技术亮点,与 DeepSeek 的深度集成:

AI 批改能力:

mindmap
    root((AI 批改))
        DeepSeek
            语法检查
            逻辑分析
            内容评估
        豆包
            情感识别
            温馨反馈
            学习引导
        评分
            多维度评价
            个性化建议
            数据洞察

AI 批改流程:

image.png

批改质量保障:

  • 多轮提示词优化,确保批改一致性
  • 人工复核机制,AI + 人工双重保障
  • 批改日志记录,便于分析和改进
  • 异步处理机制,不阻塞用户操作

4. 权限管理系统

graph TB
    A[超级管理员] --> B[系统配置]
    A --> C[用户管理]
    A --> D[数据监控]
    
    E[教师] --> F[班级管理]
    E --> G[作业发布]
    E --> H[批改审核]
    
    I[学生] --> J[加入班级]
    I --> K[提交作业]
    I --> L[查看成绩]

功能展示

管理员端功能

主要功能:

  • 系统配置管理:AI 模型参数调整,批改规则配置
  • 用户权限管理:教师和学生账号管理,权限分配
  • 数据统计分析:批改效率统计,系统使用情况分析
  • 批改日志查看:AI 批改过程追踪,质量监控

控制台看板

大模型配置 && 用户管理

教师端功能

主要功能:

  • 班级创建与管理:一键创建班级,邀请码分享
  • 作业发布与管理:灵活的作业类型,截止时间设置
  • 批改结果查看:AI 初评结果查看,人工复核操作
  • 学生成绩统计:班级整体表现分析,个人进步追踪

工作台

创建班级

添加学生

发布作业

配置 AI 批改规则

作业详情

批改作业

学生端功能

主要功能:

  • 班级加入:通过邀请码快速加入班级
  • 作业提交:支持草稿保存,多次修改提交
  • 批改结果查看:详细的 AI 评语和教师点评
  • 学习进度追踪:个人作业历史,成绩变化趋势

激活账户

学习中心

班级作业

提交作业

查看结果

AI 点评和老师批注

如何高效率高质量利用 LLM 翻译一本文字版 pdf 书籍(几百页)?

By: SGL
8 October 2025 at 12:43
SGL: 有一些不错的书籍没有国内译本,鉴于个人英语水平不支持高效率地阅读英文书籍。

因此想要把文字版的 pdf 书籍自己翻译成中文手稿。

目前想象的思路就是:

1. 利用 pdf 工具把所每页都处理成 markdown ,图片提取出来也用 markdown 格式进行排版。
2. 调用 LLM API 逐个文档翻译。
3. 为了便于校对翻译质量,采取一段一段的上英下中的对照式翻译。

上面的方案中唯一不确定性的在于:
1. pdf 解析库是否能力足够高质量的把 pdf 解析成 markdown?
2. 至于 llm 翻译的部分,翻译本身就不需要太长的上下文,就一段一段的慢慢放到后台调 api 并发翻译,然后拼接起来就好了。
Before yesterdayMain stream

Aeroshell 1.3.0 全面升级 | AI 命令助手、多协议支持、安全防护再进化

By: guocf20
7 October 2025 at 17:12
guocf20:

兄弟们,距离上次在 V2EX 发帖已经半个月,经过最近迭代 Aeroshell 已经从一个 SSH 工具,成长为支持 SSH / VNC / Redis / 数据库 / 串口 的多协议智能终端, 同时加入了 AI 命令生成器、安全防护、任务调度中心 等功能,彻底改变了我自己日常开发和运维的方式。

初衷不变: 让终端更聪明一点,也更安全一点

用传统 SSH 工具( Xshell / MobaXterm )时,大家可能都有这些痛点:

打开一堆窗口、切换麻烦;

批量执行命令容易出错;

命令输错(比如 rm -rf )就成灾;

想看主机状态还得自己查命令;

想用 AI 辅助命令,却离终端太远。

我希望终端不仅是“连接工具”,而是一个智能助手 + 安全管家。

新版主要功能:

在新版中,终端的 AI 模块彻底升级:主要在三个位置嵌入了 AI 增强功能: 1)支持 AI 对话,能按用户要求输出命令,并且解释参数 Aeroshell 1.3.0 智能命令详解

2)终端模式 AI 增强,能够快速补全,自然语言转换为系统命令 Aeroshell 1.3.0 终端智能命令提示

3)新增了一个轻量的任务管理系统,用于:用自然语言进行批量操作,比如打开多台主机,转换为 DSL ,可以直接批量打开主机并且执行命令。 Aeroshell 1.3.0 轻量级任务管理系统

4)支持批量导入主机 Aeroshell 1.3.0 批量导入主机界面采用 卡片式 + 动画过渡,支持动态高度自适应,交互非常顺滑。 6)VNC 支持双向复制 7)支持终端全屏,沉静代码中 Aeroshell 1.3.0 全屏模式 8)新增加终端主题 ![Aeroshell 1.3.0 终端主题]( https://pic1.imgdb.cn/item/68e4d8acc5157e1a885b170d.png

📦 下载 & 体验

🌐 官网: https://termdev.com

💬 欢迎反馈

Aeroshell 仍在快速迭代中,我非常期待大家的建议与吐槽。 无论是功能需求、bug 反馈、界面建议、还是插件创意, 我都会在评论中认真回复。

如果觉得还不错,也请帮忙点个赞或转发支持一下.

三十五:从有限游戏到无限游戏

7 October 2025 at 11:57
bmpidev2019:

今年马上三十五了,作为一个程序员,终于到了这个特殊的年龄,于是整理了下自己在三十五岁前折腾的事情及一些也许能启发别人的思考,放在这篇文章: https://www.bmpi.dev/self/35/

每个人都有自己的一段旅途,也欢迎你来分享你的三十五。

有没有熟悉 clickhouse 的? clickhouse 对于分布式支持的如何?

By: red13
7 October 2025 at 06:17
red13:

要对一个大数据量的 table 进行查询,不会有复杂的查询逻辑,都是简单的 where 、order by 、group by 、sum 、avg 、count 查询,当前数据量接近 500 亿了,在半年内会增加到一万亿。

目前方案是使用 spark ,我知道 clickhouse 很适合 olap 查询场景并且速度很快,但 clickhouse 对于 10000 亿数据量能扛得住吗?或者 clickhouse 也能很好的支持分布式?

对 clickhouse 了解不是很深入,希望大佬指点

glm 的 2api 思路

7 October 2025 at 01:41
flyingelement:

处理了新增的签名问题。截止 20251007 有效

加上轮询,上下文和转 OpenAI 逻辑就是一个成熟的 2api 项目

对于带历史对话的,参数 t 是最近一次 user content

防止有人不知道还是提一下,token 来自网页 cookie 的 token 值,目前看来是长期有效

import time, hmac, hashlib, requests, uuid, json, base64

token = ""

def decode_jwt_payload(token):
    parts = token.split('.')
    payload = parts[1]

    padding = 4 - len(payload) % 4
    if padding != 4:
        payload += '=' * padding

    decoded = base64.urlsafe_b64decode(payload)
    return json.loads(decoded)

def zs(e, t, timestamp):
    r = str(timestamp)
    i = f"{e}|{t}|{r}"
    n = timestamp // (5 * 60 * 1000)
    key = "junjie".encode('utf-8')
    o = hmac.new(key, str(n).encode('utf-8'), hashlib.sha256).hexdigest()
    signature = hmac.new(o.encode('utf-8'), i.encode('utf-8'), hashlib.sha256).hexdigest()

    return {
        "signature": signature,
        "timestamp": timestamp
    }

def make_request():
    payload = decode_jwt_payload(token)
    user_id = payload['id']
    chat_id = str(uuid.uuid4())
    timestamp = int(time.time() * 1000)
    request_id = str(uuid.uuid4())

    t = input("Hello, how can I help you ?\n - ")

    e = f"requestId,{request_id},timestamp,{timestamp},user_id,{user_id}"

    result = zs(e, t, timestamp)
    signature = result["signature"]

    url = "https://chat.z.ai/api/chat/completions"
    params = {
        "timestamp": timestamp,
        "requestId": request_id,
        "user_id": user_id,
        "token": token,
        "current_url": f"https://chat.z.ai/c/{chat_id}",
        "pathname": f"/c/{chat_id}",
        "signature_timestamp": timestamp
    }

    headers = {
        "Authorization": f"Bearer {token}",
        "X-FE-Version": "prod-fe-1.0.95",
        "X-Signature": signature
    }

    payload = {
        "stream": True,
        "model": "GLM-4-6-API-V1",
        "messages": [
            {"role": "user", "content": t}
        ],
        "params": {},
        "features": {
            "image_generation": False,
            "web_search": False,
            "auto_web_search": False,
            "preview_mode": True,
        },
        "enable_thinking": True,
        "chat_id": chat_id,
        "id": str(uuid.uuid4())
    }

    response = requests.post(url, params=params, headers=headers, json=payload, stream=True)
    response.raise_for_status()

    for chunk in response.iter_content(chunk_size=8192):
        if chunk:
            print(chunk.decode('utf-8'), end='')

if __name__ == "__main__":
    make_request()

Claude Code 疯狂周限,国内中转节后全面涨价或倒闭。

By: tlerbao
6 October 2025 at 22:02
tlerbao:

X 上大家已经开始疯狂吐槽 A 社的周限了。

国内还没全面复工的情况下,各种转商已经顶不住了。

潜伏在几个人,已经开始有发布涨价的了

最少的翻一倍,有一个 Duck 的中转直接翻 6 倍,用不起了

小一点的中装商直接倒闭。

想使用 yaml 代替 sql 进行数据分析,想知道还有没有其他更合适的语法类型?

By: red13
6 October 2025 at 19:47
red13:

要在正在开发中的数据分析引擎上增加使用 yaml 进行数据分析的能力,以代替 sql , 基于以下原因: 1 、对于多维数据模型的分析,sql 只能在二维表关系结构上进行定义( star schema 不等同于逻辑多维结构),并且进行复杂分析时编写 sql 语句存在大量 group by 和 sum(),降低整体描述性; 2 、在进行 join 多个大数据量表(百亿级)进行查询时性能降低,可能需要根据特定查询进行详细调整,这无法支持业务层面的随机性探索式数据分析; 3 、yaml 语法较为简单,且属于纯描述性语法,可以直接描述业务层面语义,通过解析 yaml 直接调用数据分析引擎底层接口,越过 sql ,能提供功能上更强、效率更高的查询能力; 4 、“yaml 代替 sql”以及类似宣传可以作为后期产品宣传的噱头。

目前暂定使用 yaml 代替 sql ,不知道还有没有比 yaml 更合适(普及度高、纯描述性、语法简单)的语法结构?

感觉前端自学后端是不是还是从 Java 开始学比较好?

By: guin
5 October 2025 at 18:38
guin:

逛了一圈各种课程的相关网站感觉还是 java 的课体系全,实战多,看了下慕课等网站也就 java 的课程涵盖的多 深度比较广,各种类型的什么直播平台、充电桩、AI 、网约车,从基础到微服务,物联网,高并发什么类型的课都有,后端最重要的除了基础是不是就是积累业务能力?如果学其他语言的话感觉业务实战不足 没那么多类型的实战课可以学,除非进公司,大家的意见呢?

抛开性价比这个选项,你认为目前写代码最强模型是?

By: tlerbao
3 October 2025 at 11:48
tlerbao:

答案无疑肯定是在 Codex 和 Claude Sonnet/Opus 中产生。

为什么要抛开性价比这个选项?

我发现现在甚至有人还在吹 Deepseek 、GLM 。

2025 年了,哪吒票房那段时间还没完?年还没过完?

吹的有两种人(我说的比较难听):

  1. 用不起贵的,强行拉出性价比,所谓的便宜好用。
  2. 爱国,大谈 Claude 敌对势力。

所以,你认为

抛开爱国情绪、抛开花费,目前写代码最强模型到底是 Codex 还是 Claude ?

没深度使用过多家的,没对比过的,只用过某一种的,回答也基本没有什么参考价值。

避雷 V 站站内推广的云雾 API , 已经把我坑死了 .

By: yuntun
2 October 2025 at 11:10
yuntun:
与重庆云之雾网络科技有限公司工作人员的完整聊天记录


一个月前接到一个 ai 生成图片的项目 , 刚好在 v 站看到云雾 api 的推广 , 索性直接就接入了这个 api , 之前一直都好好的 , 直到这周二出现问题 , 原因是云雾 api 修改生图分组没有通知导致我这边服务停摆 , 等到发现的时候已经十几页的生成失败了 . 修改分组之后就好了 , 今天又出问题了 , 及时发现也是两页的生成失败 . 客户已经急了 , 第一期的尾款和第二期的定金已经不打算结算了 . 白白损失 4 万块钱

JetBrains All Products Pack 累计十年续费达成~

30 September 2025 at 23:27
ryougifujino: 刚刚又续了 2 年正好累计满了十年。本来打算到期后不续费了的,毕竟现在各种 AI CLI 和 AI IDE 都如火如荼。而 JB 的 AI 一直比较拉垮。
但是今天更新了发现 AI Pro ( All Products Pack 现在是包含了 AI Pro )多了个 Agents 选项,里面多了个 Claude Agent 和 Quick Edit 。然后用量也明牌标记出来了每月有 10 刀的 credits 。
由于我现在本身就是有续费三年后的经常性-40%,再加上最近有 25% off 的折扣码,这样算下来每月仅仅只需要 10 刀!除去 AI Pro 的 10 刀 Credit 四舍五入等于买 AI Pro 白送 IDE 全家桶😆,所以还是决定继续续费了。想必 JB 能给出这么大的优惠也是受到了各种 AI 产品带来的巨大压力。
今年前些时候有一个参加什么会的兑换码,正好在 V 站看到了又兑换了一年,后面 JB 还专门发邮件来说不会收回,还是要给 JB 点个赞👍。

感觉不少前端框架 版本升级似乎很不喜欢搞兼容?

By: bbbblue
1 October 2025 at 02:11
bbbblue:

现在技术栈主要是 js/ts + react/nextjsjava + sb

前段时间把自己之前的项目,跑在 java11sb2,升级到了 java21sb3,除了 lombok 要跟着升级,再加上 javaEE 包改成 JakartaEE,其他都兼容了,没遇到太大问题。 然后把几个 IO 任务的线程池改成 virtual thread, 测试没问题就发上去了,感觉比较丝滑。


但是前端这边的库/框架要升级感觉就特别蛋疼。。。。

首先为什么要升级呢,因为想用新功能和特性,而且还在不断写的项目偶尔要用一些新依赖,框架版本太老可能会和新依赖本身产生冲突,emmmm ,但是反过来,升太快可能其他库还没准备好...也会各种不兼容。


去年学了 remix,项目里要用。v2 版本,future flags 开了大部分。
然后看到官方说不会有 v3 版本了,v3 和 react router v7 合并...
我:???

后来真合并了,升级需要打开所有 v2 的 future flag ,然后用 codemod 可以完成部分工作,剩下一堆有问题的地方自己找 issue 解决了,大量的包名从 remix 改成了 rr

rr 的 v7 开始说自己有多种模式,你可以用框架模式(其实就是remix), 库模式(之前 rr 的方式), 现在库模式好像又分成了两个。 rr 算是不兼容老熟人了,只能说 remix 无了。

然后 remix 又突然宣布 remix v3 正在开发。
我:???
一看,这个 v3 是完全新的东西,甚至不基于 react 了,官方说是完全不一样的东西。
彻底无语了,完全不一样的东西你叫啥 v3 。

Next.js 的情况稍微好一点点,至少这个框架是持续性的,不像 Remix,有点绝后的感觉。
Next.js 13 的时候出了 App Router, 然后建议从 Page Router 迁移到 App Router,官方提供了并存和逐步迁移的方案。

但也基本是“软弃用”了,新特性全是 App Router 的。官方也通过文档不断告诉你,你正在使用的技术已经过时了,再不迁移,就享受不到框架发展的红利,逐渐会被边缘化。这东西本质上也是一种“不搞兼容”的策略,用未来的发展前景逼着你进行重构。

这两个库算是用的人不少了吧,就感觉很神奇,为什么就不喜欢搞兼容呢,感觉好像创新大于一切似的,动不动就搞个大改动😂,有点像苹果,我升级系统你不跟是吧,那你 app 别跑了呗😂。

emmm...可能这就是 windows 思维和苹果思维?

如何在没有手机的紧急情况下联系到其他人

30 September 2025 at 14:22
chensong004:

看了 https://www.v2ex.com/t/1162804 这个帖子《开个脑洞:如何在陌生设备上证明『我是我』》,说的是在没有手机的情况下证明自己是自己。 我曾经遇到过一个类似的紧急情况,不过倒不是需要进行身份认证,而是很简单的只是想联系到别人。 那是有一次紧急到郊区加班,现场有电脑有网络,但是唯一疏忽的是没有手机充电器,因为是紧急加班没跟家里提前说好,结果手机没电了。我面对着一个有网络的电脑却想不到该如何跟家人联系告诉他们可能得晚点回去,怕他们联系不上担心。 家人不会使用邮箱等网络沟通工具,微信没有手机也无法登录,甚至其他的例如 qq 等工具也必须手机扫码才能登录。

又是被写其他语言库的 Java 党搞恶心的一天

By: realpg
30 September 2025 at 09:18
realpg:

编程语言: golang

原因, 阿里云 oss sdk 从 v1 升级到 v2 因为 v1 有些问题他们不修了

破防原因:

v1 语法:

client := oss.New("endpoint","accesskey","secretkey")
简洁明了 全世界的人都是这么初始化的...

v2 语法:

var region = "cn-hangzhou"

var endpoint = "oss-cn-hanghzou-internal.aliyuncs.com"

var myProvider := credentials.NewStaticCredentialsProvider("accessKey", "secretkey")

cfg := oss.LoadDefaultConfig().
WithRegion(region).
    WithEndPoint(endpoint).
    WithUseDualStackEndpoint(true).
WithCredentialsProvider(myProvider)

client,err := oss.NewClient(&cfg)

希望你们这些 Java 神仙不写 Java 时候干啥都这样

晚上睡觉前先给自己 WithComdom WithSildenafil 一下 再来个 PullProvider, PushProvider, SuckProvider, SleepProvider,

高强度使用黑苹果 5 年 ,针对黑苹果,我讲句公道话

By: sk217
27 September 2025 at 09:42
sk217:
  1. 黑苹果没有完美的,有完美洁癖请绕行,每一代升级都会少一些东西,不能用,比较麻烦
  2. 黑苹果目前最大的价值是绕开 库克基佬金子内存,对于大内存需要囊中羞涩的老哥很友好,几百块钱直接满上 128G 内存,对我这种内存焦虑症患者非常友好
  3. 小主机的硬件难找,适配很麻烦,建议台式机,硬件很好找,抄作业就完了,这几年再更新黑苹果的少了,新硬件抄作业比较麻烦
  4. 博通的网卡打了 OCLP 很好用,我在 15.7 sequoia 用了一年,基本没有什么问题,蓝牙 WiFi 都是免驱
  5. 2.5G 网卡有 Lucy 的驱动,只要买对了 8125 的型号,目前没有发现什么问题
  6. 笔记本都是专有硬件,不建议笔记本黑苹果,我自己也是买了一台 M1 的笔记本
  7. 一定要买对硬件,买错硬件就没办法抄作业了

我的机器是从 Sierra 一路升级上到 sequoia ,中间没有任何折腾,除了 usb 定制一下,打了 OCLP ,少了的功能我基本不用,iMessage Facetime, 黑苹果对我来说最大的价值就是 大内存的且界面友好又齐全的 unix 工具链 操作系统,任何追求完美的行为在黑苹果上都是徒劳的

❌
❌