DeepSeek模型在“裸奔” 腾云悦智安全实验室Ollama安全防护保姆级教程来了!

互联网
2025
03/12
17:28
分享
评论

最近国产大模型DeepSeek的爆火,不少开发者通过Ollama工具将其部署在本地服务器上。但你知道吗?近九成Ollama服务器因配置疏忽,直接暴露在公网“裸奔”!通过网络空间测绘平台发现,截止2025年3月1日,共有14,359台裸奔在互联网,其中中国境内占比最高,攻击者可随意窃取模型、滥用算力,甚至让服务器沦为“挖矿肉鸡”。

如何快速堵住漏洞?别让辛苦训练的AI模型为他人做嫁衣。腾云悦智安全实验室为你提供5大必做防护措施,手把手教你从“裸奔”到“铁桶”!

一、漏洞描述: 未授权的身份认证

Ollama 是一款开源的大型语言模型(LLM)本地化运行框架,支持 DeepSeek-R1 等 1700+ 模型的高效部署与管理。近期安全研究显示,其默认配置存在严重安全风险:服务端口(11434)暴露公网且无身份认证机制时,攻击者可远程调用高危 API 接口进行未授权操作。

腾云悦智安全实验室已对该漏洞成功复现

二、风险速览:你的服务器可能正在被“白嫖”!

模型资产遭窃:攻击者可调用/api/push接口,将私有模型直接导出到远程服务器,核心AI资产秒变他人囊中之物。

算力疯狂被薅:未授权接口可被恶意调用模型推理功能,GPU资源被占满,轻则服务瘫痪,重则云服务器账单暴涨。

系统沦为跳板:利用路径遍历漏洞(如CVE-2024-37032),攻击者可覆盖系统文件并执行任意代码,进一步入侵内网。

三、紧急措施:立即封锁公网暴露!

步骤一:关闭“敞开的大门”

本地服务用户:在启动Ollama时添加环境变量,仅允许本机访问:

bash

OLLAMA_HOST=127.0.0.1 ollama serve

必须公网开放时,通过防火墙限制11434端口仅允许可信IP访问,拒绝0.0.0.0全开放。

步骤二:升级!升级!升级!

Ollama旧版本存在远程代码执行(CVE-2024-37032)、路径遍历(CVE-2024-45436)等高危漏洞。立即执行:

bash

ollama update  # 升级至最新0.1.34+版本

注:0.1.34以下版本必须升级,否则服务器分分钟被黑。

四、核心加固:给API加把“双重锁”

第一把锁:反向代理+密码认证

用Nginx为Ollama添加Basic Auth认证,示例配置如下:

nginx

location / {

proxy_pass http://localhost:11434;

auth_basic "Ollama Admin";

auth_basic_user_file /etc/nginx/.htpasswd;  # 生成密码文件:htpasswd -c .htpasswd admin

allow 192.168.1.0/24;  # 限制内网IP段

deny all;

}

重启Nginx后,访问需输入账号密码+IP白名单,双重保险。

第二把锁:HTTPS加密防监听

申请免费SSL证书(如Let’s Encrypt),Nginx配置强制HTTPS:

nginx

server {

listen 443 ssl;

ssl_certificate /path/to/fullchain.pem;

ssl_certificate_key /path/to/privkey.pem;

# 其余配置同上

}

杜绝数据在传输中被窃取,尤其涉及敏感模型参数时。

五、长效防护:安全运维指南

修改默认服务端口:将服务端口修改为非常用的TCP端口,减低被扫描风险。

日志监控:定期检查Nginx访问日志,封禁异常IP(如频繁尝试爆破密码的地址)。

模型来源审核:仅从DeepSeek官网或可信渠道拉取模型:

bash

ollama run deepseek-r1:14b  # 官方认证模型

定期漏洞扫描:使用各类漏扫软件或人工进行漏洞发现。

只需半小时完成上述操作,即可让Ollama服务器从“高危裸奔”进阶为“企业级防护”。

腾云悦智科技(深圳)有限责任公司,是中国领先的云计算与人工智能综合服务提供商,创立于2019年1月,专注于为企业客户提供专业的公有云、私有云、混合云等云计算及大数据、人工智能等专业技术服务。

悦智安全实验室为您提供专业安全风险评估与加固服务,深度检测隐患漏洞,构建全维度防护体系,让潜在威胁无处藏身,为您的数字资产打造铜墙铁壁级安全保障。

THE END
广告、内容合作请点击这里 寻求合作
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

相关推荐

1
3