清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单
模型特点 Claude 3.5 sonnet 平衡性能:在模型大小和 性能之间取得平衡,适合 中等规模任务。 多模态支持:支持文本和 图像处理,扩展应用场景。 可解释性:注重模型输出 的可解释性和透明性。 DeepSeek R1 高效推理:专注于低延迟和 高吞吐量,适合实时应用。 轻量化设计:模型结构优化, 资源占用少,适合边缘设备 和移动端。 多任务支持:支持多种任务, 如文本生成、分类和问答。 Kimi k1.5 垂直领域优化:针对特定领域 (如医疗、法律)进行优化, 提供高精度结果。 长文本处理:擅长处理长文本 和复杂文档,适合专业场景。 定制化能力:支持用户自定义 训练和微调,适应特定需求。 Open AI o3 mini 小型化设计:轻量级模型, 适合资源有限的环境。 快速响应:优化推理速度, 适合实时交互场景。 通用性强:适用于多种自 数据呈现的“画龙点睛” Open AI o3mini 直接调用 DALLE 生成图表,Kimi k1.5 提 供 Python 代码支持,Claude 3.5 Sonnet 负责图表逻辑优化 数据采集 数据预处理 数据分析 可视化呈现 新思路:DeepSeek R1的数据应用 中 文 数 据 处 理 优 势 创 意 写 作 生 成 能 力 数 据 读 取 分 析 能 力 低0 码力 | 85 页 | 8.31 MB | 7 月前3开源中国 2023 大模型(LLM)技术报告
以其在自然语言 处理领域的卓越表现,成为推动语言理解、生成和应用的引 擎。 LLM 在多个领域都取得了令人瞩目的成就。在自然语言处 理领域,GPT 系列模型在文本生成、问答系统和对话生成 等任务中展现出色的性能。在知识图谱构建、智能助手开发 等方面,LLM 技术也发挥了关键作用。此外,它还在代码 生成、文本摘要、翻译等任务中展现了强大的通用性。 本报告从技术人视角出发,将深入探讨 LLM 技术的背景、 以提高对语言复杂性的理解。 GPT (Generative Pre-trained Transformer) 的提出标志着 LLM 技术的飞速发展,其预训练和微调的 方法为语言任务提供了前所未有的性能,以此为基础,多模态融合的应用使得 LLM 更全面地处理各种 信息,支持更广泛的应用领域。 图源:https://postgresml.org/docs/.gitbook/assets/ml_system 02 04 向量数据库/数据库向量支持 为大模型提供高效的存储和检索能力 大模型框架及微调 (Fine Tuning) 大模型框架提供基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节 大模型训练平台&工具 提供了在不同硬件和环境中训练大语言模型 所需的基础设施和支持 编程语言 以 Python 为代表 5 / 32 LLM 基础设施:向量数据库/数据库向量支持0 码力 | 32 页 | 13.09 MB | 1 年前3DeepSeek图解10页PDF
在本地搭建大模型(如 DeepSeek)具有多个重要的优势,比如: 1. 保护隐私与数据安全。数据不外传:本地运行模型可以完全避免数据上 传至云端,确保敏感信息不被第三方访问。 2. 可定制化与优化。支持微调(Fine-tuning):可以根据特定业务需求对模 型进行微调,以适应特定任务,如行业术语、企业内部知识库等。 3. 离线运行,适用于无网络环境。可在离线环境下运行:适用于无互联网 依 然可以正常工作,不受外部因素影响。 本教程搭建 DeepSeek 好处 本地搭建 DeepSeek 三个比较实际的好处: • 本教程接入的是 DeepSeek 推理模型 R1,开源免费,性能强劲 • 本教程搭建方法 零成本,不需花一分钱。 • 为了照顾到大部分读者,推荐的搭建方法已将电脑配置要求降 到最低,普通电脑也能飞速运行。 1.2 DeepSeek 本地部署三个步骤 一共只需要三步,就能做到 据集,让模型在特定任务上优化表现。调整参数,使其更符合人类需求,如 问答、对话生成等任务。 2.3.3 强化学习(Reinforcement Learning, RL) 采用强化学习(RL)方法进行优化,主要通过人类反馈强化学习(RLHF, Reinforcement Learning from Human Feedback): 强化学习(RLHF)优化过程 • 步骤 1:人类标注者提供高质量回答。0 码力 | 11 页 | 2.64 MB | 7 月前3【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502
DeepSeek出现之前的十大预判 之五 知识的质量和密度决定大模型能力 高质量数据、合成数据使模型知识密度的快速增长 大模型能以更少的参数量达到更高的性能 360联合北大研发:5%参数量逼近Deepseek-R1满血性能 18政企、创业者必读 DeepSeek出现之前的十大预判 之六 成本越来越低 过去一年,大模型成本「自由落体」 国外:GPT-4等效智能在过去18个月内价格下降240倍 Law • 利用合成数据解决数据用尽问题 • 利用self-play强化学习,在不增大参 数规模前提下,大幅提升复杂推理能力 • 通过后训练算力和推理算力,在不增加 预训练算力前提下,大幅提升模型性能 DeepSeek颠覆式创新——技术创新 26政企、创业者必读 预训练模型如GPT——疯狂读书,积 累知识,Scaling law撞墙 预训练模型思考深度不够 算力见顶,变成少数巨头游戏 DeepSeek颠覆式创新——开源 34政企、创业者必读 成本的急剧降低 DeepSeek可适配国产硬件,促进国产硬件发展 DeepSeek的优化降低对推理硬件的要求,减少推理成本 训练成本降低,堆显卡模式受质疑,探索新思路,算法优化空间大 无需训练自己的基座模型,直接部署在DeepSeek上,不用重复发明轮子 公开蒸馏方法,帮助其他模型提升能力,实现了模型制造模型,犹如工业母机0 码力 | 76 页 | 5.02 MB | 5 月前3国家人工智能产业综合标准化体系建设指南(2024版)
高质量发展的标准体系加快形成。开展标准宣贯和实施推广 的企业超过 1000 家,标准服务企业创新发展的成效更加凸 显。参与制定国际标准 20 项以上,促进人工智能产业全球 化发展。 坚持创新驱动。优化产业科技创新与标准化联动机制, 加快人工智能领域关键共性技术研究,推动先进适用的科技 创新成果高效转化成标准。 坚持应用牵引。坚持企业主体、市场导向,面向行业应 用需求,强化创新成果迭代和应用场景构建,协同推进人工 口协议、性能评定、试验方法等技术要求,包括智能传感器的架 构、指令、数据格式、信息提取方法、信息融合方法、功能集成 方法、性能指标和评价方法等标准。 4. 计算设备标准。规范人工智能加速卡、人工智能加速模 组、人工智能服务器等计算设备,及使能软件的技术要求和测试 方法,包括人工智能计算设备虚拟化方法,人工智能加速模组接 口协议和测试方法,及使能软件的访问协议、功能、性能、能效 的测试方法和运行维护要求等标准。 施参考架构、计 算能力评估、技术要求、稳定性要求和业务服务接口等标准。 6. 系统软件标准。规范人工智能系统层的软硬件技术要求, 包括软硬件编译器架构和优化方法、人工智能算子库、芯片软件 运行时库及调试工具、人工智能软硬件平台计算性能等标准。 7. 开发框架标准。规范人工智能开发框架相关的技术要求, 包括开发框架的功能要求,与应用系统之间的接口协议、神经网 络模型表达和压缩等标准。0 码力 | 13 页 | 701.84 KB | 1 年前3DeepSeek从入门到精通(20250204)
维度 推理模型 通用模型 优势领域 数学推导、逻辑分析、代码生成、复杂问题拆解 文本生成、创意写作、多轮对话、开放性问答 劣势领域 发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务 强弱判断 并非全面更强,仅在其训练目标领域显著优于通用模型 通用场景更灵活,但专项任务需依赖提示语补偿能力 • 例如:GPT-3、GPT-4(O 链式推理(慢速思考模型,如OpenAI o1) 性能表现 响应速度快,算力成本低 慢速思考,算力成本高 运算原理 基于概率预测,通过大量数据训练来快速预测可能 的答案 基于链式思维(Chain-of-Thought),逐步推理 问题的每个步骤来得到答案 决策能力 依赖预设算法和规则进行决策 能够自主分析情况,实时做出决策 创造力 限于模式识别和优化,缺乏真正的创新能力 能够生成新的创意和解决方案,具备创新能力 直接给出明确步骤或 格式要求 简单任务、需快速执行 “用Python编写快速排序函 数,输出需包含注释。” ✅ 结果精准高效 ❌ 限制模型自主优化空 间 需求导向 描述问题背景与目标, 由模型规划解决路径 复杂问题、需模型自主 推理 “我需要优化用户登录流程, 请分析当前瓶颈并提出3种方 案。” ✅ 激发模型深层推理 ❌ 需清晰定义需求边界 混合模式 结合需求描述与关键 约束条件0 码力 | 104 页 | 5.37 MB | 7 月前3清华大学 DeepSeek 从入门到精通
维度 推理模型 通用模型 优势领域 数学推导、逻辑分析、代码生成、复杂问题拆解 文本生成、创意写作、多轮对话、开放性问答 劣势领域 发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务 强弱判断 并非全面更强,仅在其训练目标领域显著优于通用模型 通用场景更灵活,但专项任务需依赖提示语补偿能力 • 例如:GPT-3、GPT-4(O 链式推理(慢速思考模型,如OpenAI o1) 性能表现 响应速度快,算力成本低 慢速思考,算力成本高 运算原理 基于概率预测,通过大量数据训练来快速预测可能 的答案 基于链式思维(Chain-of-Thought),逐步推理 问题的每个步骤来得到答案 决策能力 依赖预设算法和规则进行决策 能够自主分析情况,实时做出决策 创造力 限于模式识别和优化,缺乏真正的创新能力 能够生成新的创意和解决方案,具备创新能力 直接给出明确步骤或 格式要求 简单任务、需快速执行 “用Python编写快速排序函 数,输出需包含注释。” ✅ 结果精准高效 ❌ 限制模型自主优化空 间 需求导向 描述问题背景与目标, 由模型规划解决路径 复杂问题、需模型自主 推理 “我需要优化用户登录流程, 请分析当前瓶颈并提出3种方 案。” ✅ 激发模型深层推理 ❌ 需清晰定义需求边界 混合模式 结合需求描述与关键 约束条件0 码力 | 103 页 | 5.40 MB | 8 月前3清华大学 普通人如何抓住DeepSeek红利
攻大模型研发与应用。 • DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。性能对齐OpenAI-o1正 式版。 • DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大 提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAl-o1正式版。 (Pass@1) 支持联网搜索与深度思考模式,同时支持文件上传,能够扫描读取各类文件及图片中的文字内容。 决策支持 文体转换 个性化推荐 翻译与转换 多语言翻译 异常检测 多源信息融合 知识与推理 知识图谱构建 流程优化 数据可视化 数据分析 趋势分析 多模态交互 任务执行 任务协调 工具调用 格式转换 关系抽取 语言理解 文案写作 代码注释 故事创作 通用问答 专业领域问答 因果推理 第四阶段:10分钟——用AI优化与格式伪装 p统一话术: “将以下段落改写成政府报告风格,加入‘数字化转型’‘双碳战略’等关键词:{粘贴原文}” p生成图表: 指令:“将上文‘设备配置表’转换成LaTeX格式的三线表。”插入图表后,自动增加方案“厚度”。 p最终润色: “检查以下方案书逻辑漏洞,列出3个可能被客户质疑的点,并给出应对答案。” p关键提醒: ü 保命优先级:先堆字数再优化,前30分钟专注“把文档撑到10000字”。0 码力 | 65 页 | 4.47 MB | 7 月前3人工智能安全治理框架 1.0
1.2 风险导向、敏捷治理。密切跟踪人工智能研发及应用趋势,从人工 智能技术自身、人工智能应用两方面分析梳理安全风险,提出针对性防范应对 措施。关注安全风险发展变化,快速动态精准调整治理措施,持续优化治理机 制和方式,对确需政府监管事项及时予以响应。 1.3 技管结合、协同应对。面向人工智能研发应用全过程,综合运用技术、 管理相结合的安全治理措施,防范应对不同类型安全风险。围绕人工智能研发 从技术、 管理两方面提出防范应对措施。同时,目前人工智能研发应用仍在快速发展, 安全风险的表现形式、影响程度、认识感知亦随之变化,防范应对措施也将相 应动态调整更新,需要各方共同对治理框架持续优化完善。 2.1 安全风险方面。通过分析人工智能技术特性,以及在不同行业领域 应用场景,梳理人工智能技术本身,及其在应用过程中面临的各种安全风险 隐患。 2.2 技术应对措施方面。针对模型算法、训练数据、算力设施、产品服务、 存在偏见或歧视, 甚至输出存在民族、宗教、国别、地域等歧视性内容。 (c)鲁棒性弱风险。由于深度神经网络存在非线性、大规模等特点,人 工智能易受复杂多变运行环境或恶意干扰、诱导的影响,可能带来性能下降、 决策错误等诸多问题。- 4 - 人工智能安全治理框架 (d)被窃取、篡改的风险。参数、结构、功能等算法核心信息,面临被 逆向攻击窃取、修改,甚至嵌入后门的风险,可导致知识产权被侵犯、商业机0 码力 | 20 页 | 3.79 MB | 28 天前3Deepseek R1 本地部署完全手册
作者wechat:samirtan 版本:V2.0 更新⽇期:2025年2⽉8⽇ ⼀、简介 Deepseek R1 是⽀持复杂推理、多模态处理、技术⽂档⽣成的⾼性能通⽤⼤语⾔模型。本⼿册 为技术团队提供完整的本地部署指南,涵盖硬件配置、国产芯⽚适配、量化⽅案、云端替代⽅ 案及完整671B MoE模型的Ollama部署⽅法。 核⼼提示: 个⼈⽤户:不建议部署 三、国产芯⽚与硬件适配⽅案 1. 国内⽣态合作伙伴动态 企业 适配内容 性能对标(vs NVIDIA) 华为昇 腾 昇腾910B原⽣⽀持R1全系列,提供端到端推理优化 ⽅案 等效A100(FP16) 沐曦 GPU MXN系列⽀持70B模型BF16推理,显存利⽤率提升 30% 等效RTX 3090 海光 DCU 适配V3/R1模型,性能对标NVIDIA A100 等效A100(BF16) 2. DeepSeek-R1-Q4_K_M 404 GB ≥500 GB ⾼性能服务器/云GPU 下载地址: HuggingFace模型库 Unsloth AI官⽅说明 2. 硬件配置建议 硬件类型 推荐配置 性能表现(短⽂本⽣成) 消费级设备 Mac Studio(192GB统⼀内存) 10+ token/秒 ⾼性能服务器 4×RTX 4090(96GB显存+384GB内存) 7-8 token/秒(混合推理)0 码力 | 7 页 | 932.77 KB | 7 月前3
共 13 条
- 1
- 2