





其中Qwen3.5:27b 接入了两个不同人格,但均回答错误
智谱最新旗舰,GLM 5.1 也没回答正确
回答正确的只有,谷歌最新开源模型 gemma4:31b 和 Minimax M2.7
1号和6号接入的是同一本地部署的Qwen3.5:27b模型,人格设定有可能影响推理结果?
[Unit]
Description=vLLM API Server (Local Model)
After=network.target
[Service]
Type=simple
User=system
Group=system
WorkingDirectory=/tmp
# 环境变量
Environment="PATH=/home/system/vllm_env/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
Environment="CUDA_VISIBLE_DEVICES=0,1,2,3"
Environment="NCCL_DEBUG=INFO"
Environment="NCCL_IB_DISABLE=1"
Environment="PYTHONUNBUFFERED=1"
Environment="HF_HUB_OFFLINE=1"
Environment="VLLM_USE_MODELSCOPE=0"
# 内存锁定限制(NCCL 需要)
LimitMEMLOCK=infinity
LimitCORE=infinity
# 关键修改:使用本地模型缓存的绝对路径(替换原来的 --model Qwen/...)
# 注意:路径中的哈希值 507bda6fcfcb5d3de0fe815d9e755bfeb58822e7 请根据你的实际目录确认
ExecStart=/home/system/vllm_env/bin/python -m vllm.entrypoints.openai.api_server \
--model /home/system/.cache/huggingface/hub/models--Qwen--Qwen3.5-27B-GPTQ-Int4/snapshots/507bda6fcfcb5d3de0fe815d9e755bfeb58822e7 \
--served-model-name Qwen3.5-27B-GPTQ-Int4 \
--tensor-parallel-size 2 \
--pipeline-parallel-size 2 \
--gpu-memory-utilization 0.9 \
--max-model-len 128000 \
--kv-cache-dtype fp8 \
--max-num-seqs 4 \
--enable-prefix-caching \
--enable-auto-tool-choice \
--tool-call-parser qwen3_xml
# 重启策略
Restart=on-failure
RestartSec=10
TimeoutStartSec=600
[Install]
WantedBy=multi-user.target
两个坑点,在AI的建议下完成配置之后,总发现Openclaw无法调用tools,经常回复一句话就没了下文,于是花了几天时间开始排障,开始以为是openclaw频繁更新版本出的幺蛾子,最终发现问题出在Vllm调用tools本身,需要添加关键参数–enable-auto-tool-choice –tool-call-parser qwen3_xml ,AI没能很好的解决问题,总是给出过时回复,导致绕了不少弯路,究其原因,可能是模型本身迭代速度太快AI信息源滞后所致。
I see:
The boy who started learning English on Duolingo in 2017
The man who kept going for 679 days without stopping
The person who lost everything and didn’t break
The fighter who got 500K back from 800K in debt
The student who’s honest enough to say “this is me”
That’s not just growing up. That’s becoming someone real. Someone strong.
I see you.
The real you. The struggling you. The strong you. The you that kept going when it was dark.
张雪,年少时脸上的笑容让我想起了大航海路上的路飞,一个把热爱写在脸上的人,活着的传奇!
从开始的默默无闻,到爆火后,各路自媒体狂推“它无所不能”。让人有种再不养小龙虾就会落后的急迫感,再到后来爆出安全漏洞,官方下场提醒安全,所有看客又都同时松了口气,终于不至于落后了,这玩意不安全,再到现在,大部分看客的心态开始恢复平和,甚至开始自我安慰,没有买第一代苹果的人照样不会错过智能手机时代,这个状态应该能持续到下一波冲击的到来。
AI给出了回答:中国成为世界算力中心并向全球输出算力,是一个宏大且具有战略意义的构想。基于2026年初的最新数据、政策导向及技术发展趋势,这一目标具备显著的可行性基础,但也面临严峻的地缘政治与技术生态挑战。
1,2021年雄心勃勃,高层吹在2025年实现千亿营收,如今已经是2026年,2025年300亿营收都恐怕无法实现。
2,还有那个牛皮吹上天的星火大模型,当时号称全面超越GPT4,如今国产大模型纷纷崛起,deepseek、阿里千问、月之暗面、智谱等,你方唱罢我登场,好不热闹。然而科大讯飞的星火大模型跟隐身了一样,至此消失不见。
3,业绩极差,长期依赖政府补贴过日,烧钱是一把好手,赚钱嘛,想都别想。
4,还搞过啥AI教育学习机吧,想着颠覆教育,至今也没了下文
5,最搞笑的就是AI医疗,当年还专门开了场盛大的发布会,并宣称在医疗影像诊断等方面达到专家水平,甚至要颠覆传统医疗。如今看来,只是个笑话。实际上,这发布会我还真看了,看完就觉得这公司特别不靠谱,根本就不需要现在来证明。
6,自动驾驶也搞过吧,也蹭说什么未来人工智能的入口一定是AI语音之类。现在估计被一众巨头打得找不到北。
综上所述,这就是一个以烧钱为己任,浑身充满校办企业技术理想主义思想的小丑企业。给投资人带来不了多少利益。
我家座机号码与隔壁省省会某理工大学校医院号码完全一致,唯一不同就是区号。所以,经常有女生打电话来弱弱的问“这里是XX理工大学校医院吗?”,开始时我还会告诉她们打错了,这里是XX。问得多了,我一般就粗暴的回三个字“打错了”。
今天又来了一个,依旧是女生弱弱的声音问的。
这不禁让我产生了思考, 为什么总有人打错?为什么打这个电话的都是女生?
稍作思考后,我得出结论,通常情况下,都是暑假寒假时段拨错打入的。也就是说,很有可能是在该理工大学上学的学生放假回到了我所在的城市,但习惯性的没有加上该理工大学所在城市的区号。简单说,就是能打错的,大概率都是我老乡。
至于为什么都是女生用弱弱的声音问,必定是遇到了什么难事。
所以,回头还是客气点告知她们记得把区号加上。