3分钟快速上手:最轻量的Mac飞秋替代方案
还在为Mac上找不到好用的局域网通信工具而烦恼吗?feiq-mac 是基于Qt开发的跨平台局域网通信工具,完美兼容飞鸽传书协议,让你在macOS上也能享受流畅的局域网聊天体验!🚀
✨ 快速上手
环境准备与安装
首先确保你的Mac已安装Qt开发环境,然后通过以下命令获取项目源码:
git clone https://gitcode.com/gh_mirrors/fe/feiq
cd feiq
qmake feiq.pro
make
编译完成后,双击生成的feiq应用即可启动!首次运行会自动创建配置文件,让你即刻开始局域网通信之旅。
首次配置小贴士
程序会在你的用户目录下生成 ~/.feiq_setting.ini 配置文件,推荐进行以下个性化设置:
[user]
name = 你的炫酷昵称
host = 你的设备名称
[app]
send_by_enter = 0 # 0: Ctrl+Enter发送 1: Enter直接发送
🎯 核心功能体验
无缝消息收发
feiq-mac支持完整的文本消息收发功能,界面简洁易用。主窗口采用经典的聊天布局,左侧好友列表,右侧消息区域,让你快速找到沟通对象。
丰富表情支持
内置96款精美表情,完美兼容Windows版飞秋的表情系统,让跨平台沟通更有趣!
智能好友管理
- 自动好友发现:实时探测同一局域网内的在线用户
- 手动添加好友:支持通过指定IP地址添加特定用户
- 未读消息置顶:自动将未读消息的好友置顶,确保重要信息不遗漏
⚙️ 高级配置技巧
网段穿透配置
针对屏蔽了广播包的企业路由器,feiq-mac提供了自定义网段配置功能:
[network]
custom_group = 192.168.74.|192.168.82.
只需在配置文件中添加需要穿透的网段,用竖线分隔不同网段,即可实现跨网段通信。
智能排序优化
开启按沟通频繁度排序功能,让常用联系人始终保持在列表前列:
[rank_user]
enable = 1
🔧 常见问题解答
❓ 为什么收不到其他用户的消息?
确保所有用户都在同一局域网段,且防火墙未阻止UDP广播通信。企业网络环境下可能需要配置custom_group参数。
❓ 如何修改消息发送快捷键?
通过修改配置文件的send_by_enter参数即可切换发送快捷键,0为Ctrl+Enter发送,1为Enter直接发送。
❓ 支持文件传输吗?
是的!feiq-mac支持完整的文件收发功能,操作简单直观。
💎 独特优势
原生Mac体验
相比其他跨平台方案,feiq-mac深度集成macOS特性:
- Dock图标未读消息红点提示
- 原生通知中心消息推送
- 完整的Retina显示支持
卓越的互操作性
完美兼容Windows版飞秋协议,确保与同事朋友的跨平台通信无障碍,是企业内部沟通的理想选择。
轻量高效
基于Qt和C++11开发,资源占用极低,运行流畅稳定,即使在高负载环境下也能保持优异性能。
立即体验:编译运行feiq-mac,享受最纯净的Mac版飞秋体验!无论是团队协作还是日常沟通,这都是你在macOS上不可或缺的局域网通信利器。🎉
注:项目完全开源,欢迎开发者参与贡献,共同完善这款优秀的Mac飞秋替代方案!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
