字数 710,阅读大约需 4 分钟
DeepSeek的突破与中国科技的崛起
“封锁吧,封锁十年八年,中国的一切问题都解决了。” ——毛泽东
看到DeepSeek昨日登顶,真的是感慨良多

OpenAI出现之后很多人一直在说我们人工智能这里落后美国至少十年,OpenAI更是一开始就屏蔽了中国IP和+86手机号注册,实在是憋屈。本以为要花很多年去追赶,没想到仅仅是两年。我们不仅是追上了,而且在多个方面超越了OpenAI。

DeepSeek 主要特性

-
• 强大:具备与O1相媲美的推理能力,目前堪称大模型界第一巴图鲁。 -
• 经济:通过算法优化而非单纯依赖算力,让训练与使用成本降低一个数量级。 -
• 开源:通过完全开源的策略,降低了用户的使用门槛,还促进了AI开发者社区的协作生态 -
• 免费:目前官方服务完全免费,随时随地可供使用。 -
• 本土:完全由一支年轻的中国本土团队开发,没有海外背景,团队规模虽小但成就非凡。

环境要求
在开始部署之前,请确保你的系统满足以下要求:
-
• 操作系统: Linux (推荐 Ubuntu 20.04 或更高版本) / macOS / Windows (需 WSL2) -
• Python 版本: 3.8 或更高版本 -
• GPU: 支持 CUDA 11.0 及以上版本的 NVIDIA GPU(可选,推荐用于加速推理) -
• 内存: 至少 16GB RAM -
• 存储: 至少 20GB 可用空间
下载 DeepSeek-R1 模型
-
1. 使用 Ollama 下载 DeepSeek-R1 模型: ollama pull deepseek-r1
-
2. 等待下载完成。下载进度会显示在终端中。 -
3. 验证模型是否下载成功: ollama list
如果看到
deepseek-r1
,则说明模型已成功下载。
运行模型
1. 启动 DeepSeek-R1 模型: ollama run deepseek-r1
-
2. 模型启动后,您可以直接在终端与模型交互。例如: >>> 你好,DeepSeek!
你好!有什么我可以帮助您的吗? -
3. 如果需要以 API 形式提供服务,可以使用以下命令: ollama serve
默认情况下,API 服务运行在
http://127.0.0.1:11434
。
测试
1. 使用 curl
或 Postman 测试 API:curl -X POST http://127.0.0.1:11434/api/generate
-H "Content-Type: application/json"
-d '{
"model": "deepseek-r1",
"prompt": "你好,DeepSeek!"
}'-
2. 预期响应: {
"response": "你好!有什么我可以帮助您的吗?",
"status": "success"
}
人间正道是沧桑
再一次忍不住感慨,任何封锁和质疑都无法阻挡中国科技创新和前进的步伐。从”两弹一星”到”北斗导航”,从”神舟飞船”到”嫦娥探月”,再到今天的DeepSeek登顶。
”让他们去说我们这也不行那也不行罢“ ——毛泽东
原文始发于微信公众号(喵开发):star 45k!国产最强大模型,一举打爆CloseAI
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之家整理,本文链接:https://www.bmabk.com/index.php/post/316600.html