MemShellParty v1.2.0 版本发布:内存马生成与反序列化增强
MemShellParty 是一个专注于 Java Web 应用安全研究的开源项目,主要提供各种 Java 内存马(Memory Shell)的生成和利用工具。该项目为安全研究人员和渗透测试人员提供了便捷的内存马生成能力,帮助他们在授权测试中验证 Web 应用的安全性。
版本亮点
管理工具内存马支持
本次 v1.2.0 版本最重要的更新是新增了对管理工具内存马生成的支持。该工具是一款流行的 Web 管理工具,以其轻量级和强大的功能著称。通过集成管理工具内存马生成功能,MemShellParty 现在能够为安全测试人员提供更多样化的后门选择。
内存马技术是一种高级的持久化技术,它不需要在目标服务器上写入文件,而是直接将恶意代码注入到运行中的 Java 进程内存中。这种技术相比传统的 WebShell 更加隐蔽,更难被常规的安全防护措施检测到。
Java 反序列化 CB 版本扩展
另一个重要改进是对 Java 反序列化 Commons Collections (CB) 多版本 Payload 的支持。Java 反序列化漏洞是近年来影响广泛的严重安全问题,而 Commons Collections 库则是这类漏洞最常见的利用点之一。
新版本增加了对其他 CB 版本的 Payload 生成能力,这意味着安全研究人员现在可以针对不同版本的 Commons Collections 库生成相应的利用代码,大大提高了工具的适用性和灵活性。
技术优化
测试流程改进
开发团队对持续集成(CI)流程进行了优化,将 was7 集成测试分离出来单独运行。这一改进显著减少了整体测试时间,提高了开发效率,使得新功能和修复能够更快地交付给用户。
UI 调整
虽然 MemShellParty 主要是一个命令行工具,但开发团队仍然关注用户体验。本次版本对部分用户界面进行了调整,使操作更加直观,信息展示更加清晰。
问题修复
随机类名生成修复
修复了一个可能导致随机生成的类名无法加载的问题。当随机生成的类名恰好是 Java 保留关键字时,会导致类加载失败。新版本通过改进类名生成算法,避免了这种情况的发生,提高了工具的稳定性和可靠性。
总结
MemShellParty v1.2.0 版本通过新增管理工具内存马支持和扩展 Java 反序列化 Payload 生成能力,进一步巩固了其作为专业 Java Web 安全研究工具的地位。对于从事 Web 应用安全研究的人员来说,这些更新提供了更多样化的测试手段和更强大的功能支持。
随着内存马技术和反序列化漏洞研究的深入,MemShellParty 项目将持续为安全社区提供有价值的工具和资源,帮助提升 Web 应用的整体安全水平。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C036
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
kylin-wayland-compositorkylin-wayland-compositor或kylin-wlcom(以下简称kywc)是一个基于wlroots编写的wayland合成器。 目前积极开发中,并作为默认显示服务器随openKylin系统发布。 该项目使用开源协议GPL-1.0-or-later,项目中来源于其他开源项目的文件或代码片段遵守原开源协议要求。C00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00