深入解析ctm/executor项目中的NEXTSTEP版Macintosh模拟器
项目概述
ctm/executor项目中的Executor是一个商业级Macintosh模拟器,专为NEXTSTEP 2.0系统设计。这个预发布版本目前仅支持基于Intel和Motorola处理器的NEXTSTEP系统,暂时没有计划扩展到其他架构平台。
安装要求与注意事项
安装位置
Executor必须安装在/LocalApps目录下,这是硬性要求。原因是其内部配置文件godata.sav中包含了以/LocalApps开头的绝对路径。如果安装在其他位置,虽然程序仍可运行,但浏览器功能将无法正常使用预设的热键绑定。
权限设置
为确保Executor正常运行,需要特别注意以下文件和目录的权限设置:
- Executor主程序必须设置为root所有并启用setuid位
System Folder目录必须对所有使用Executor的用户可写*godata.sav和*system.ard文件也需要设置为全局可写
最佳实践是在root用户下执行安装,这样系统会自动配置正确的权限。
功能特性与使用技巧
磁盘访问机制
Executor对Macintosh格式软盘的访问有特殊要求:
- 必须在Executor启动后插入软盘
- 在非NeXT硬件上,还需通过Workspace的"Check for Disks"菜单项手动刷新磁盘状态
如果提前插入软盘,NEXTSTEP系统会接管磁盘控制器,导致Executor无法完整读取磁盘数据。
性能说明
当前版本存在一个已知性能限制:由于必须通过Display PostScript处理所有图形输出,导致在NEXTSTEP平台上的显示性能低于其他平台。开发团队已获得NeXT公司的技术支持,计划在2.0正式版发布后优化图形处理性能。
版本演进与授权信息
版本规划
1.99x系列属于实验性版本,开发团队计划在1996年1月发布beta版,2-3月推出正式版。
临时授权
在过渡期间,所有用户均可使用以下临时授权信息(有效期至1996年2月1日):
- 序列号:100
- 授权密钥:"c9gm7giez8jf2"
注册方法:
- 启动Executor后点击"Info"按钮
- 多次点击"Next"跳过法律声明
- 在注册页面输入上述序列号和密钥
- 以root身份重新运行Executor完成注册
资源与支持
项目文档中包含多个有价值的参考资料:
executor_faq.txt:常见问题解答ernst_oud.txt:从DOS用户角度介绍Executor的使用经验
系统还预置了位于/usr/local/lib/executor/ExecutorVolume的示例程序集(注意部分为共享软件,需自行注册)。
技术社区
开发团队活跃在Usenet新闻组comp.emulators.mac.executor和专门的邮件列表中。用户可以通过以下方式参与:
- 发送订阅邮件至
executor-request@ardi.com(实时接收) - 或
executor-digest-request@ardi.com(每日摘要)
技术讨论邮件请发送至executor@ardi.com,问题反馈请发送至questions@ardi.com,错误报告请发送至bugs@ardi.com。
商业授权方案
正式版定价策略:
- 学生版:99美元
- 教育机构/教职工版:99美元
- 商业版:199美元
授权将覆盖所有1.99x版本和最终的2.0 CD-ROM版本。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00