【软件产业】Rudis v0.2。0 正式发布,高性能内存数据库(2025-12-16)
12月11日, 资讯讯,Rudis v0.2。0 正式发布,这是一款高性能内存数据库。新版本对 Keys 命令的内部算法进行了重构,在大数据集场景下性能提升高达 99.55%。解决了与 Redis-insight 的 Set 预览兼容性问题,增强了可视化工具的使用体验。新增了 maxclients 配置项以限制客户端连接数量,并增加了 appendsync 配置项,提供三种 AOF 持久化策略(always、everysec、no)。此外,新增了 43 个命令,大幅扩展了功能覆盖面,并通过大量测试用例确保代码质量和功能稳定性。项目在 GitHub 和 Gitee 上开放,欢迎社区参与建设。
【点评】Rudis v0.2。0 的发布展示了其在性能优化和功能扩展上的显著进展。99.55%的性能提升数据具体且有力,体现了技术团队对核心算法的深度优化。新增的 maxclients 和 appendsync 配置项反映了对系统稳定性和数据安全性的重视,尤其是提供了灵活的持久化策略选择。43 个新增命令的加入不仅丰富了功能,也显示出项目对兼容性和完整性的追求。开源社区的参与邀请为项目持续迭代提供了可能,这种开放态度有助于吸引更多开发者贡献。
【软件产业】Gfast 快速开发框架 V3.3。10 版发布(2025-12-16)
12月16日, 资讯讯,Gfast V3.3。10版本发布,基于Go Frame 2。x+Vue3+Element Plus开发,是一款全栈前后端分离的管理系统。该版本前端采用vue-next-admin、Vue和Element UI,具备高生产率和模块化特点,支持插件化扩展,包括工作流引擎、自定义表单、CMS等功能。认证机制采用gftoken用户状态认证及casbin权限认证。本次更新主要涉及多租户版本优化,包括代码生成配置页面样式调整、树形雪花ID父级PID精度优化、左侧菜单经典布局修复、日志切割配置增加、定时任务重启失败重试机制改进,以及casbin缓存redis分布式部署登录状态同步和安全性更新。
【点评】Gfast V3.3。10版本的发布展示了其在管理系统开发领域的持续创新。多租户功能的优化和安全性更新体现了对用户体验和数据保护的重视,尤其是casbin缓存redis分布式部署的改进,增强了系统的稳定性和扩展性。插件化设计为开发者提供了高度灵活性,工作流引擎、CMS等插件的支持进一步拓宽了应用场景。代码生成助手的兼容性更新也反映出团队对开发者生态的维护。这些改进不仅提升了框架的实用性,也强化了其在竞争中的技术优势。
【软件产业】阿里通义提出 SAPO:一种稳定且高性能的 LLM 强化学习方法(2025-12-16)
12月10日, OSCHINA讯,阿里通义Qwen团队提出了一种名为Soft Adaptive Policy Optimization(SAPO)的新型强化学习方法,旨在解决大语言模型(LLM)强化学习中策略优化的不稳定问题。与现有的GRPO和GSPO方法采用硬剪切不同,SAPO使用平滑、温度控制的门控函数替代硬剪切,避免了梯度丢失和难以平衡的问题。SAPO的特点包括连续信任域、序列级一致性、token级自适应性以及非对称温度设计,从而在稳定性和性能上均有所提升。
【点评】SAPO的提出为大语言模型的强化学习提供了更稳定的优化方法,尤其在处理异常token和序列级梯度时表现出色。其非对称温度设计能够差异化处理正负token,进一步提升了模型的适应性。这一方法不仅在理论上具有创新性,还在实际任务中验证了其有效性,尤其是在数学、编码和逻辑推理等复杂任务上的表现优于现有方法。对于MoE模型的应用尤为关键,解决了硬剪切方法在梯度处理上的局限性。这一进展为LLM的优化提供了新的思路,可能推动相关领域的进一步发展。
【软件产业】Manus 1.6 发布:Max 性能、移动开发和 Design View(2025-12-16)
12月16日, OSCHINA讯,Manus正式发布1.6版本,核心更新包括旗舰级Agent Manus 1.6 Max、移动开发功能和Design View。Manus 1.6 Max通过先进架构实现性能提升,单次任务成功率显著提高,用户满意度在双盲测试中提升19.2%。Max在电子表格任务中表现突出,可处理复杂财务建模和数据分析,同时优化了Web开发,支持构建精美界面的内部工具。新增的移动开发功能支持端到端构建移动应用程序。Design View提供交互式图像创建和编辑,支持精确局部修改、图像内文本编辑和多图像合成。所有功能已向用户开放。
【点评】Manus 1.6版本的发布展示了AI代理技术的显著进步。Max Agent的性能提升体现在具体场景中,如19.2%的用户满意度增长和电子表格任务处理能力的突破,表明其规划架构的实用性。移动开发功能的加入扩展了应用边界,使非专业开发者也能快速实现想法。Design View的创新在于将文本提示转化为可视化操作,降低了创意设计的门槛。这些更新不仅强化了产品竞争力,也反映了AI工具向多模态、低代码化发展的行业趋势。
【软件产业】开发者工具箱 Kairoa v1.1。8 发布:新增证书查看和密码强度检测...(2025-12-16)
12月15日, 资讯讯,现代化跨平台桌面开发者工具箱 Kairoa v1.1。8 版本发布,新增证书查看器和密码强度检测器两个安全相关功能,并对颜色转换器进行了全面优化。证书查看器支持 PEM、CRT、CER 等多种格式,可展示主题、颁发者、有效期等详细信息,并自动检测证书状态。密码强度检测器提供多维度安全检查,显示强度等级和破解时间估算,并给出改进建议。颜色转换器界面经过重构,支持 HEX、RGB、HSL 等更多格式,实现双向转换和统一界面。Kairoa 目前包含 30+ 个实用工具,涵盖编码解码、加密工具、网络工具等多个类别。
【点评】Kairoa 此次更新聚焦安全功能强化,证书查看器的多格式支持和离线处理能力满足了开发者对隐私保护的需求。密码检测器的实时评估和破解时间估算功能具有实用价值,但未提及是否整合了最新的密码库数据。颜色转换器的格式扩展和界面统一提升了工具的专业性,30+工具的集成体现了其作为综合工具箱的定位,但需注意功能深度与专业工具的差异化竞争。
【软件产业】高通宣布收购 RISC-V 初创企业 Ventana 微系统公司(2025-12-16)
12月15日, OSCHINA讯,高通宣布收购 RISC-V 初创企业 Ventana 微系统公司,此举可能推动其启动双架构并行战略,未来芯片产品有望同时集成自研 Arm 架构核心与高性能 RISC-V 架构核心。Ventana 成立于 2018 年,专注于数据中心及企业级市场的高性能 RISC-V CPU 设计,已推出多代产品。高通表示收购后将持续推进自研 Arm 架构 Oryon 核心的研发,同时迭代 Ventana 的 RISC-V 设计方案。高通在 RISC-V 领域早有布局,2019 年骁龙 865 芯片已采用 RISC-V 微控制器,2023 年与谷歌合作研发面向可穿戴设备的 RISC-V 芯片。
【点评】高通收购 Ventana 标志着其在处理器架构上的多元化布局,既保持 Arm 架构的既有优势,又通过 RISC-V 拓展高性能计算市场。Ventana 的数据中心级 RISC-V 技术将增强高通在服务器和企业级领域的竞争力。此次收购也反映了 RISC-V 生态的成熟,高通的双架构战略可能为行业提供更灵活的解决方案,尤其在可穿戴设备和数据中心等细分市场。
【软件产业】阿里云正式发布函数计算 AgentRun(2025-12-16)
12月10日, OSCHINA讯,阿里云正式发布函数计算AgentRun,这是一款以全球领先的函数计算FC为技术底座的一站式Agentic AI基础设施平台。该平台深度融合Serverless的极致弹性、零运维和按量付费特性与AI原生应用场景,助力企业平均TCO降低60%。其核心功能包括:支持0到百万级并发极致弹性,通过忙闲时精细化计费降低成本;采用浅休眠(1毫秒极速唤醒)与深休眠技术实现性能加速和会话状态持久化;借助会话亲和机制突破Serverless无状态限制,为Agent提供持久有状态上下文环境。平台还提供安全沙箱、多语言执行引擎、浏览器自动化引擎等工具,支持数据分析、网页抓取等复杂任务。在企业级安全方面,实现多维度算力隔离与动态挂载技术,确保数据强隔离。
【点评】阿里云此次发布的AgentRun将Serverless技术与AI应用深度结合,解决了传统AI基础设施在弹性、成本和状态管理上的痛点。其百万级并发能力和60%的TCO降幅数据,直接回应了企业对AI规模化落地的核心诉求。技术亮点中,1毫秒唤醒的浅休眠机制和会话亲和设计,既保留了Serverless的优势,又突破了无状态限制,这在多轮对话等场景具有显著价值。安全沙箱与全链路追踪的配套设计,则体现了对生产环境需求的精准把握。
【软件产业】ionet 25.2 发布,纳秒级延迟的分布式网络通信框架(2025-12-16)
12月15日, 资讯讯,ionet 25.2版本发布,这是一个基于Java语言开发的轻量级分布式网络编程框架,能够实现纳秒级别的端到端延迟。该框架采用Aeron+SBE组合实现消息传输层,具备真零拷贝、零回环、零反射、零GC等技术特性,通过无锁共享内存环形缓冲区设计避免内核态切换和锁竞争。框架支持TCP、WebSocket、UDP等多种连接方式,打包后仅15MB,启动时间在0。x秒内完成。适用于网络游戏服务器、物联网、高频金融交易等对延迟要求极高的场景,提供类MVC编码风格避免类爆炸,支持多服单进程调试和动态扩缩容架构,可生成C#、TypeScript等多种客户端交互代码。
【点评】ionet框架的技术实现颇具创新性,其纳秒级延迟性能主要源于底层Aeron消息系统的优化和零拷贝设计,这在Java生态中较为罕见。框架提出的“多服单进程“调试模式有效解决了分布式系统开发中的调试难题,而动态协议增减特性则显著提升了运维灵活性。值得注意的是,该框架强调“一次编写到处对接“的理念,通过自动生成多平台客户端代码,将传统网络编程中30%的联调工作量转化为自动化流程。
【软件产业】Snow-IntelliJ v1.2。0 发布:文档注释、结构视图与缩进格式化增...(2025-12-16)
12月10日, 资讯讯,Snow-IntelliJ v1.2。0版本发布,重点优化了文档注释、结构视图与缩进格式化功能。本次更新重构了文档注释与格式化体系,统一了行注释与块注释的前缀定义,新增SnowDocCommentPostFormatter以规范文档注释的缩进与星号对齐。通过CodeStyleManager精确计算缩进,修复了模型不同步导致的异常问题。结构视图方面,重构了SnowStructureViewElement,完善了层次关系,新增函数节点图标与签名信息展示,提升了语义一致性。此外,优化了词法分析器增量分词逻辑,调整了段落判断逻辑,修正了文件类型定义问题。新增Snow语言代码风格设置支持,默认缩进为4个空格。依赖升级至Snow 0.13。
【点评】本次更新通过重构注释体系与优化结构视图,显著提升了代码格式化稳定性与开发体验。文档注释的规范化处理增强了代码可读性,而结构视图的层次优化与图标区分功能,为大型项目提供了更高效的导航能力。依赖升级确保了工具链与编译器行为的同步,进一步强化了语义分析的准确性。这些改进体现了对开发者实际需求的深度洞察,尤其在代码维护与团队协作场景下具有实用价值。新增的风格设置功能则提供了更灵活的个性化配置空间。
【软件产业】通义百聆语音双子星升级并开源,大幅提升语音合成与识别能力(2025-12-16)
12月15日, OSCHINA讯,通义百聆宣布其语音大模型Fun-CosyVoice3与Fun-ASR完成重大升级并同步开源。Fun-CosyVoice3首包延迟降低50%,中英混说错误率下降56.4%,支持9种语言、18种方言及情感控制,其开源版本Fun-CosyVoice3-0.5B具备zero-shot音色克隆能力。Fun-ASR在嘈杂环境下准确率达93%,新增歌词与说唱识别功能,支持31种语言自由混说与多种中文方言,流式识别首字延迟仅160毫秒,轻量化版本Fun-ASR-Nano-0.8B同步开源。模型已在魔搭、HuggingFace及GitHub等平台开源,支持本地部署与二次开发。
【点评】此次升级显著提升了语音合成与识别的核心性能,特别是中英混说错误率大幅下降56.4%和嘈杂环境下93%的识别准确率,体现了技术突破。开源策略降低了开发者使用门槛,轻量化版本进一步优化了推理成本,有助于推动语音AI技术的普及应用。支持多语言、方言及情感控制的功能扩展,增强了模型在实际场景中的适用性,为开发者提供了更灵活的工具选择。
【软件产业】MIT创企Liquid AI推出企业级小模型训练蓝图LFM2(2025-12-08)
12月8日,OSCHINA讯,近日,麻省理工学院创企Liquid AI推出第二代Liquid Foundation Models(LFM2),采用“liquid”架构,提供市场上最快的设备端基础模型。LFM2最初推出350M、700M和1.2B参数的密集检查点,基准测试显示其在质量和CPU吞吐量上优于Qwen3、Llama3.2和Gemma3等竞争对手。该系列模型适用于手机、笔记本电脑和车辆等设备,实现实时且隐私保护的AI应用。Liquid AI还拓展了产品线,增加任务和领域特定变体、小型视频摄取和分析模型,以及边缘部署栈LEAP。公司发布51页LFM2技术报告,公开架构搜索、训练数据混合、蒸馏目标等细节,为企业提供训练小型高效模型的参考。
【点评】Liquid AI的LFM2通过优化架构和训练流程,显著提升了小模型的性能和效率,使其在设备端应用中具备竞争力。技术报告的公开为行业提供了宝贵的实践指南,尤其适合资源受限的企业场景。这一举措不仅推动了小模型技术的发展,也为隐私保护和实时AI应用提供了新的可能性。LFM2的设计注重实际需求,如延迟预算和内存上限,显示出公司在产品落地方面的务实态度。
【软件产业】Gemini 3 推出Deep Think模式:面向Ultra订阅用户的深度推理升级(2025-12-08)
12月8日,OSCHINA讯,Google正式推出Gemini 3 Deep Think模式,面向Ultra订阅用户提供深度推理升级。该模式在Gemini 3 Pro基础上增加算力并引入新技术,专注于复杂数学、科学与逻辑推理任务。Deep Think在多项高难度基准测试中表现优异:Humanity’s Last Exam得分41%,ARC-AGI-2测试借助代码执行拿下45.1%,GPQA Diamond科学知识测试获得93.8%,均标注为“最先进水平”。其依托“高级并行推理”能力,可同时探索多种假设路径,提升复杂问题求解的准确率和稳健性。在国际数学奥林匹克(IMO)和国际大学生程序设计竞赛(ICPC)中,相关模型达到“金牌标准”水平。
【点评】Google此次推出的Deep Think模式标志着AI推理能力的又一突破,尤其在数学和科学领域的表现令人瞩目。41%的Humanity’s Last Exam得分虽未过半,但在当前AI领域已属顶尖水平,93.8%的GPQA Diamond成绩更凸显其在科学知识上的优势。IMO和ICPC的“金牌标准”验证了其实际应用价值,两场4.5小时的离线考试设置模拟了人类竞赛环境,对模型的独立性和表达能力提出极高要求。
【软件产业】企业级Node.js框架Egg.js4.0原生支持AI开发能力(2025-12-08)
12月8日,OSCHINA讯,Egg.js4.0版本发布,原生支持AI开发能力,新增对象生命周期管理功能,使项目从框架到对象都透明可控。该版本提供AOP切面编程能力,比koa中间件更强大,可直接应用于类或方法。集成MCP和LangChain,通过简单装饰器即可构建MCPserver和Agent。升级指南建议在旧版项目中开启@eggjs/tegg-plugin和@eggjs/tegg-config插件。未来计划包括内置多种Agent构建能力、支持serverless场景及新增教学视频。
【点评】Egg.js4.0的发布展示了企业级Node.js框架在AI领域的快速适应能力。新增的对象生命周期管理提升了项目可控性,AOP切面编程的引入增强了代码灵活性。集成MCP和LangChain表明框架正积极拥抱AI生态,简化开发流程。升级路径设计平滑,降低了迁移成本。未来计划中的serverless支持符合云原生趋势,教学视频的推出将有助于开发者快速上手。这些改进使Egg.js在企业级应用开发中更具竞争力。
【软件产业】美国初创公司 Arcee AI 发布开源 MoE 模型 Trinity(2025-12-03)
12月3日,OSCHINA讯,近日,美国人工智能初创公司Arcee AI发布开源MoE模型系列Trinity,包括已推出的Trinity Nano(约6B参数MoE,1B active)和Trinity Mini(26B参数MoE,3B active),以及计划2026年1月推出的Trinity Large(约420B参数,13B active)。该系列采用多专家架构(afmoe),每层128个专家,每个token激活8个专家,基于10T级别数据训练,支持grouped-query attention等技术。Nano面向移动和嵌入式场景,Mini适用于云或本地机房的多步推理等任务,两者均采用Apache 2.0许可,权重可下载或通过API使用。
【点评】Arcee AI通过完全自主的预训练路线推出Trinity系列,展现了在开源模型领域的差异化竞争策略。其技术架构设计(如每层128专家、共享专家机制)和规模化训练(10T数据、2048 GPU集群)体现了对高效推理与长上下文处理的重视。将模型按参数规模分层部署(嵌入式到云端),精准覆盖不同场景需求,尤其是Nano对隐私敏感场景的适配,可能推动边缘AI应用发展。
【软件产业】苹果发布开源视频生成模型 STARFlow-V(2025-12-03)
12月3日,OSCHINA讯,近日,苹果在GitHub发布了开源视频生成模型STARFlow-V,该模型拥有70亿参数,基于Normalizing Flow架构,在时空潜在空间中运行,采用全局-局部架构,旨在实现高效、高保真度的视频生成。STARFlow-V支持480p分辨率(640x480),81帧(16 FPS,约5秒),是首个基于归一化流的因果视频生成器,支持端到端训练、原生似然估计,并能原生支持文本到视频、图像到视频以及视频到视频的生成任务,无需更改架构或重新训练。项目地址未提供具体链接。
【点评】苹果此次发布的STARFlow-V模型在视频生成领域展现了技术突破,尤其是其基于Normalizing Flow架构的设计,为视频生成提供了新的可能性。70亿参数的规模表明其在处理复杂视频数据时的潜力,480p分辨率和81帧的支持也显示了其在细节和流畅度上的优势。开源策略有助于推动行业技术进步,吸引更多开发者参与优化和应用。这一动作可能对视频生成领域的竞争格局产生影响,尤其是在与扩散模型的对比中,STARFlow-V的表现值得关注。
【软件产业】Anthropic 宣布收购开源 JavaScript 运行时 Bun(2025-12-03)
12月3日,OSCHINA讯,近日,Anthropic宣布收购开源JavaScript运行时Bun,Bun将成为Claude Code、Claude Agent SDK及未来AI编码产品的底层基础设施。收购后Bun保持开源和MIT许可,团队不变并继续公开开发。Bun由Jarred Sumner于2021年创立,集运行时、包管理器、打包器和测试运行器于一体,速度远超竞争对手。Claude Code在发布六个月后年化运营收入达10亿美元。Anthropic表示Bun正在重新定义现代软件工程的速度与性能,其团队加入将帮助巩固Claude Code的发展势头,跟上AI应用指数级增长步伐。
【点评】Anthropic收购Bun的战略举措凸显了AI与开发工具深度融合的趋势。Bun的高性能特性与Claude Code的AI能力结合,可能显著提升开发效率,尤其在快速迭代的AI应用领域。Claude Code六个月实现10亿美元年化收入的成绩,反映出市场对AI辅助开发工具的强烈需求。此次收购不仅强化了Anthropic的技术栈,也保留了Bun的开源属性,这种平衡商业与开源生态的做法值得关注。
【软件产业】豆包手机助手发布技术预览版(2025-12-01)
12月1日,OSCHINA讯,近日,豆包手机助手宣布推出技术预览版,这是豆包与手机厂商在操作系统层面合作的手机AI助手。该助手基于豆包大模型能力和手机厂商授权,提供语音、侧边键或豆包Ola Friend耳机唤醒功能,支持任意界面屏幕内容提问。助手整合了语音通话、视频通话和屏幕共享等常用功能,双击侧边AI键即可调用。多模态方面,助手打通系统原生相册,支持语音修图指令如删除人物、清理杂物。目前,搭载该助手的工程样机nubia M153已少量发售,供开发者和感兴趣用户体验。
【点评】豆包手机助手的技术预览版展现了AI与硬件深度结合的潜力。通过操作系统级合作,助手实现了更自然的交互方式,如多模态唤醒和屏幕内容即时问答,这提升了用户便利性。整合通话和屏幕共享功能,进一步强化了实用性。多模态修图指令的加入,显示了AI在图像处理领域的应用拓展。工程样机的限量发售策略,既测试了市场反应,也为后续优化提供了反馈。这一合作模式可能推动更多AI企业与硬件厂商的深度整合。
【软件产业】玲珑应用商店极速版1.0.9已经发布(2025-12-01)
12月1日,OSCHINA讯,近日,玲珑应用商店极速版1.0.9已发布,该版本专注于简化功能,提升启动速度与用户体验。与官方版本相比,极速版去除了不必要的信息展示,仅保留基础的应用管理与升级功能。技术栈采用Flutter3.38.3和Dart3.10.1,运行于FedoraGNU/Linux43x86-64系统。本次更新修复了“全部应用”页面的布局问题,优化了应用升级后的信息刷新效率,并微调了代码逻辑。此外,全部应用页面的重置按钮现在会同步清除用户输入的搜索内容。
【点评】玲珑应用商店极速版的推出反映了市场对轻量化工具的需求增长,尤其在技术社区中,快速启动和简洁界面成为关键竞争力。Flutter框架的使用进一步体现了跨平台开发的高效性,而针对Fedora的优化则显示了开发者对Linux生态的重视。此次更新虽以修复为主,但细节调整(如搜索信息清空)提升了用户体验的连贯性,符合极速版“专注流畅”的定位。
【软件产业】Ant Design 6.0 正式发布(2025-11-24)
11月24日,OSCHINA讯,Ant Design v6正式发布,重点进行技术侧深度优化,提升与React 19及未来版本的兼容性和性能,最低要求React 18。此次升级为平滑迁移,v5用户可直接升级无需兼容包或工具,v5进入1年维护周期。v6移除IE支持,采用纯CSS Variables模式,支持实时主题变化和多主题复用,性能表现更优。所有组件完成DOM语义化改造,支持逻辑位置描述和RTL,可通过ConfigProvider统一配置样式。v6移除了v4废弃的API,如findDOMNode兼容逻辑,统一了API命名风格。新增功能包括支持零运行时样式生成和函数式动态生成语义结构,提升了定制化能力。
【点评】Ant Design v6的发布标志着前端组件库在技术架构上的重大进步,特别是纯CSS Variables的采用和多主题支持,显著提升了样式管理的灵活性和性能。语义化结构的全面改造增强了可访问性和定制能力,符合现代Web开发趋势。移除IE支持和废弃API的清理,体现了团队对技术债的积极处理,有助于降低维护成本。React Compiler的引入和React 18+的专注支持,显示了与React生态的深度协同。
【软件产业】IntelliJ IDEA 2025.2.5 发布(2025-11-24)
11月24日,OSCHINA讯,近日,IntelliJ IDEA 2025.2.5版本发布,主要更新包括:优化了对Docker Engine v29版本的API调用支持,解决了Gradle Runner在运行Spring Boot的Gradle 9.x项目时的问题。修复了IDE在扫描特定JSON结构的HTTP请求文件时可能挂起的缺陷,并改进了GitLab插件对大型pipeline ID的处理能力。详细更新内容可参考官方发行说明。
【点评】此次更新聚焦于开发工具的稳定性和兼容性提升,尤其是对Docker和Gradle生态的支持,体现了JetBrains对开发者实际需求的快速响应。针对Spring Boot项目的修复直接解决了高频使用场景的痛点,而GitLab插件的优化则有助于团队协作效率。这些改进虽为细节调整,但能显著减少开发过程中的摩擦,反映出IDE工具在持续集成环境中的关键作用。