20260116
测试文档116
5555水电费水电费
测试文档
本文档由AAA团队创作
-
+
首页
测试文档116
医疗人工智能开源大模型深度调研与工作站 部署可行性研究报告 摘要 本报告旨在针对特定高性能工作站环境(Intel Xeon 4510 / 64GB RAM / NVIDIA RTX Pro Blackwell 24G),对当前主流开源医疗多模态大模型(Medical MLLMs)进行详尽的各种维度评 估。调研对象涵盖阿里巴巴达摩院的 Lingshu(灵枢)、蚂蚁集团的 AntAngelMed、Google DeepMind 的 MedGemma-1.5 以及 HuatuoGPT-Vision 等前沿模型。报告深入分析了各模型 在 HealthBench 等权威基准上的性能表现,解构了其在DICOM影像处理、手术视频分析及语音 交互方面的多模态技术架构,并重点评估了中文医疗语境下的适应性。 针对用户指定的硬件配置,本报告进行了严苛的理论验证与算力推演。研究发现,虽然 AntAngelMed-100B 在推理性能上占据榜首,但其巨大的显存需求使其无法在单卡24GB环境下 实现高效部署;相比之下,Lingshu-32B 结合4-bit量化技术,成为该硬件条件下兼顾性能与部署 可行性的最佳“通用型”选择;而 MedGemma-1.5 (4B) 凭借其对3D容积数据的原生支持与极低 的资源占用,成为该工作站运行“专科化”3D影像分析任务的理想组件。本报告最终提供了一套基 于混合精度的分层部署策略,旨在最大化利用Blackwell架构的计算潜能,为医疗科研与临床辅助 系统的构建提供决策依据。 1. 引言:医疗AI基座模型的范式转移 1.1 从判别式AI到生成式GMAI 过去十年,医疗人工智能(AI)主要由“判别式”模型主导,如用于肺结节检测的U-Net或用于心律 失常分类的CNN。这些模型在特定任务上表现卓越,但缺乏跨任务的通用推理能力。随着 Transformer架构的成熟,医疗AI正在经历向“通用医疗人工智能”(Generalist Medical AI, GMAI) 的范式转移。GMAI的核心特征是多模态融合与生成式推理,即模型不仅能“看”到影像中的病灶, 还能结合电子病历(EHR)中的文本历史,生成诊断报告,甚至通过语音与医生进行多轮问答交互。 2024年至2025年间,开源社区迎来了医疗大模型的爆发期。以阿里巴巴 Lingshu、Google MedGemma 为代表的模型,不仅在参数规模上达到了数百亿级别,更在多模态对齐(Alignment) 上取得了突破,使得在消费级或工作站级硬件上部署“专家级”医疗助手成为可能 1。 1.2 调研背景与目标 本报告受委托方之托,旨在解决一个具体的工程挑战:如何在单台 WR5228G3 工作站 上,从众 多开源模型中通过技术甄别,筛选出最适合部署的医疗大模型方案。这一挑战的核心矛盾在于** 前沿模型日益增长的参数量(数十至千亿)与本地工作站有限显存(24GB)**之间的博弈。 报告将围绕以下四个核心维度展开深度剖析: 1. 性能基准(Benchmarking): 基于HealthBench、MedQA等权威榜单的客观评分。 2. 多模态能力(Multimodality): 对DICOM影像、手术视频流、临床语音的理解与生成能力。 3. 中文本地化(Localization): 对中文医学术语、医患对话风格及中医(TCM)知识的掌握程 度。 4. 工程可行性(Feasibility): 针对Blackwell架构GPU的量化部署、显存占用计算及推理延迟预 估。 2. 硬件环境深度画像:WR5228G3 工作站 在评估模型之前,必须首先对“战场”——WR5228G3工作站的硬件特性进行微米级的解构。硬件 的物理极限将直接决定模型的选择范围。 2.1 计算核心:Intel Xeon 4510 ● 规格分析: Xeon Silver 4510 拥有12个物理核心(24线程),基频2.4GHz。作为一颗服务器级 CPU,其优势在于AVX-512指令集和**AMX(Advanced Matrix Extensions)**加速器,这对 CPU端的张量计算有显著增益。 ● 在LLM中的角色: 在显存不足时,许多推理框架(如llama.cpp)会将部分模型层(Layers)卸载 (Offload)到CPU运行。Xeon 4510的单核性能和内存带宽决定了这部分“溢出”计算的速度。 然而,DDR5内存的带宽(约100-150GB/s)远低于GPU显存(Blackwell GDDR6/7可达数百 GB/s),因此CPU卸载会导致推理速度呈指数级下降。 2.2 存储中枢:64GB DDR5 ECC 内存 ● 容量瓶颈: 64GB是运行大模型的“及格线”。 ○ 操作系统预留: Windows/Linux及后台服务通常占用4-8GB。 ○ 可用空间: 约56GB。 ○ 模型加载极限: 如果完全使用CPU推理,可以加载约40B-50B参数的量化模型(4-bit)。 但对于AntAngelMed这样100B参数的模型,即便量化后也需要约50-60GB,这使得 64GB内存处于“爆显存”的边缘,极易触发SSD交换(Swap),导致系统卡死 4。 ● 建议: 对于百亿级参数模型,64GB内存限制了“CPU+GPU混合推理”的上限。 2.3 关键组件:NVIDIA RTX Professional 4000 Blackwell 24G 这里存在一个关键的规格确认问题。根据NVIDIA官方发布的Blackwell架构工作站显卡规格: ● RTX 4000 Blackwell Generation: 官方标称显存通常为 16GB 6。 ● RTX 5000 Blackwell Generation: 官方标称显存为 32GB(或24GB版本)。 ● 用户描述的矛盾: 用户明确指出“RTX Pro 4000 Blackwell 24G”。这可能是一款特定的OEM 定制版,或者是用户将RTX 5000(24/32G)与RTX 4000(16G)的规格混淆,亦或是指上一代 Ada架构的RTX 4000(20GB)的后续升级版。 ● 分析基准: 本报告将严格遵循用户的 “24GB” 描述作为物理约束进行计算。 ○ Blackwell架构红利: 这一代GPU最大的亮点是原生支持 FP4(4-bit浮点) 精度推理 7。 这意味着在不显著牺牲精度的情况下,模型权重可以被压缩到每参数0.5字节(4 bits)。 ○ 24GB的黄金分割线: ■ FP16(半精度): 可容纳约 12B 参数模型(如Lingshu-7B, MedGemma-4B)。 ■ FP4/INT4(4-bit量化): 可容纳约 35B-40B 参数模型(如Lingshu-32B)。 ■ KV Cache(上下文): 显存必须留出空间给KV Cache,用于存储对话历史。如果模型 占满了24GB,上下文窗口将为零,模型无法进行对话。因此,模型权重占用不应超 过18-20GB。 3. 模型深度调研 I:Alibaba Lingshu (灵枢) —— 全能型选手 Lingshu(灵枢) 是阿里巴巴达摩院发布的医疗多模态基座模型,取名自中医经典,寓意其作为医 疗AI的中枢地位。 3.1 核心架构与技术规格 ● 基座模型: Lingshu 是基于 Qwen2.5-VL 架构开发的 1。这是一个极其重要的技术细节,因为 Qwen2.5是目前中文开源社区公认的最强基座之一,这意味着Lingshu天生继承了Qwen强大 的中文理解、指令遵循(Instruction Following)及视觉编码能力。 ● 参数版本: 提供 7B 和 32B 两个版本。 ● 视觉编码器(Vision Encoder): 采用了针对高分辨率优化的ViT(Vision Transformer),使其 能够处理细微的病理切片或X光片中的微小结节。 3.2 性能表现:HealthBench与SOTA ● HealthBench测评: 虽然具体的HealthBench总分在摘要中未详列,但Lingshu在官方报告 中宣称在“大多数多模态QA和报告生成任务”上超越了 GPT-4.1 (GPT-4o) 和 Claude 3.5 Sonnet 9。这表明其处于当前开源模型的第一梯队。 ● 报告生成能力: Lingshu-32B 在生成结构化医疗报告(Findings & Impression)方面表现 SOTA(State-of-the-Art)。这对于辅助放射科医生撰写初稿具有极高的实用价值。 3.3 多模态能力:广泛的影像覆盖 Lingshu最大的优势在于其惊人的模态覆盖范围,支持超过 12种医疗影像模态 9: ● 放射科: X-Ray (X光), CT Scan (CT扫描), MRI (核磁共振), PET (正电子发射断层扫描)。 ● 病理科: Histopathology (组织病理学), Microscopy (显微镜图像)。 ● 专科影像: Dermoscopy (皮肤镜), Fundus (眼底), OCT (光学相干断层扫描), Ultrasound (超 声), Endoscopy (内窥镜), Digital Photography (临床摄影)。 ● 视频能力: 继承自Qwen2.5-VL的视频理解能力,Lingshu具备处理时间序列图像的潜力,例 如分析内窥镜视频片段 11,尽管长视频处理对显存要求极高。 3.4 中文表现与本地化 作为阿里系模型,Lingshu在中文语境下具有天然优势: ● 术语准确性: 能准确区分“影像所见”(Findings)与“影像诊断”(Impression)等中文医疗文书 规范。 ● 中西医结合: 相比西方模型,Lingshu对中医(TCM)概念的理解更为深刻,这得益于其训练语 料中包含了大量中文医学文献 12。 3.5 在WR5228G3上的部署可行性 ● Lingshu-7B: ○ 显存占用(FP16): 约14GB。 ○ 可行性: 完美适配。24GB显存还剩10GB用于长上下文(KV Cache),适合处理多轮对话 或多图分析。 ● Lingshu-32B: ○ 显存占用(FP16): 约64GB(无法直接加载)。 ○ 显存占用(4-bit GGUF/AWQ): 约 18-20GB 13。 ○ 可行性: 可行(极限)。在Blackwell显卡上使用4-bit量化,模型权重占用约19GB,剩余 5GB显存。这足以支持约4k-8k tokens的上下文窗口,能够完成单张影像的问答或生成一 份标准报告。鉴于32B模型在逻辑推理上的巨大优势,这是该工作站最具性价比的配置 方案。 4. 模型深度调研 II:AntAngelMed (安诊儿) —— 推理专家 AntAngelMed 由蚂蚁集团与浙江省相关医疗机构联合研发,定位为“医疗领域的推理专家”。 4.1 核心架构:MoE (混合专家) ● 参数规模: 总参数量高达 100 Billion (1000亿),但采用 Mixture-of-Experts (MoE) 架构, 每次推理仅激活 6.1 Billion 参数 14。 ● 技术原理: MoE架构将模型拆分为多个“专家”子网络,根据输入内容动态路由。这使得模型 拥有千亿参数的知识容量,但推理计算量仅相当于一个7B模型。 4.2 性能表现:霸榜的推理能力 ● MedAIBench: 在中国权威的MedAIBench评测中排名 第一,超越所有开源及部分闭源模型 14。 ● HealthBench: 得分 63.4,显著高于同类开源模型(通常在50-58分区间)3。这表明其在复 杂病例分析、医疗伦理判断和多轮问答逻辑上具有压倒性优势。 ● 训练流程: 采用了独特的三阶段训练:持续医学预训练 -> 高质量指令微调 -> 基于GRPO( Group Relative Policy Optimization)的强化学习。这种RLHF流程使其在安全性和价值观对 齐上表现卓越。 4.3 部署瓶颈:显存的“不可能三角” 尽管AntAngelMed的计算量很小(6.1B激活),但其存储量却是巨大的。 ● 显存硬伤: 为了进行路由,GPU必须能够访问所有的专家权重。 ○ 100B参数 x 0.5字节 (4-bit量化) = 50 GB 显存。 ○ 100B参数 x 2字节 (FP16) = 200 GB 显存。 ● 工作站实测推演: 用户的RTX 4000 24G显卡完全无法装载该模型。 ○ 方案A(纯CPU): 64GB内存勉强装下50GB的量化模型,但系统剩余内存极少,极易崩 溃。且CPU推理速度极慢(< 1 token/s)。 ○ 方案B(CPU+GPU卸载): 将24GB层放入GPU,剩余26GB放入CPU内存。推理时,数据 需在CPU与GPU间频繁传输(PCIe带宽瓶颈)。根据MoE特性,每一层都需要访问不同 的专家,导致PCIe带宽瞬间饱和,推理速度将跌至不可用的水平。 ● 结论: AntAngelMed虽然性能最强,但在单卡24GB工作站上不可用。它主要面向多卡服务 器(如4x A100)环境。 5. 模型深度调研 III:MedGemma-1.5 —— 3D影像先锋 MedGemma-1.5 是Google DeepMind基于Gemma架构发布的医疗专用模型,其最大的卖点是 对高维数据的原生支持。 5.1 核心架构:轻量化与SigLIP ● 参数规模: 仅 4 Billion (4B) 15。这是一个极度轻量化的设计,旨在边缘设备(如医生办公电 脑)上运行。 ● 视觉编码: 使用 SigLIP (Sigmoid Loss for Language Image Pre-training)。相比传统的CLIP ,SigLIP在处理医疗影像这种细粒度分类任务时效率更高,且对显存更友好。 5.2 杀手级功能:3D容积与纵向对比 MedGemma-1.5 打破了大多数MLLM只能看“图片(2D)”的限制,它能看“体数据(3D)”: ● 3D CT/MRI 支持: 模型可以直接输入CT或MRI的 Volumetric Data(容积数据),而非单张切 片 16。这对于诊断需要空间信息的疾病(如脑出血体积测量、肺结节三维形态)至关重要。 ● 纵向影像分析(Longitudinal): 支持输入“当前X光片”与“历史X光片”,模型能自动对比病灶 变化(如“肺炎较前吸收”)。这是临床随访中最常见的场景。 ● 全切片病理(WSI): 支持同时输入病理切片的多个Patch进行综合分析。 5.3 语言与性能局限 ● 语言能力: 作为一个由Google主导的模型,MedGemma-1.5的核心训练数据以英文为主。虽 然支持中文 17,但在处理复杂的中文医疗病历、特别是涉及中医术语或中国特有的医保政策 问题时,表现不如Lingshu和AntAngelMed。 ● 性能: MedQA得分69%,EHRQA得分90% 2。对于一个4B模型来说,这是惊人的成绩,证明了 小模型在经过高质量垂直领域微调后也能具备强大的推理能力。 5.4 在WR5228G3上的部署可行性 ● MedGemma-4B: ○ 显存占用(FP16): 约8-9GB。 ○ 可行性: 极佳。 ○ 优势: 占用极低,剩余的15GB+显存可以用来加载巨大的3D CT数据(通常一个CT序列可 能占用数百兆甚至数GB显存)。这是该工作站运行3D影像分析的唯一可行方案。 6. 其他潜力模型:HuatuoGPT-Vision (华驼) 在响应“等(etc.)”的要求中,HuatuoGPT-Vision 是一个不可忽视的强力竞争者。 6.1 架构与特点 ● 基座: 基于Qwen-7B(HuatuoGPT-Vision-7B)或Yi-34B(HuatuoGPT-Vision-34B)18。 ● 数据优势: 利用 PubMedVision 数据集训练,包含了130万条高质量医学VQA数据。其特别 之处在于“去噪”处理,利用GPT-4V对原始PubMed图片说明进行了清洗和重写,大大提高了 图文对齐的质量。 ● 中文能力: “华驼”系列一直深耕中文医疗,其包含34万条中文医疗VQA数据,使其在中文多 模态交互上非常流畅。 6.2 部署建议 ● HuatuoGPT-Vision-7B 是Lingshu-7B的有力替代品。如果用户发现Lingshu在某些特定科 室(如骨科,因PubMedVision中骨科数据较多)表现不佳,可以尝试部署HuatuoGPT-7B,其 显存需求同样在14GB左右(FP16),完全适配RTX 4000 24G。 7. 综合对比分析 为了更直观地展示各模型在用户特定环境下的表现,我们构建了以下对比矩阵: 特性维度 Alibaba Lingshu (灵 枢) AntAngelMed (安诊儿) Google MedGemma 1.5 HuatuoGPT-V ision 模型规格 7B / 32B 100B (MoE 6.1B激活) 4B 7B / 34B 核心优势 全能通才:12+ 模态支持, 推理大脑: SOTA级诊断逻 3D专家: CT/MRI容积分 数据质量: PubMedVision Qwen2.5强基 座 辑,复杂病例分 析 析,纵向对比 清洗数据,中文 VQA强 中文能力 ⭐⭐⭐⭐⭐ (原生,含TCM) ⭐⭐⭐⭐⭐ (原生, MedAIBench第 一) ⭐⭐⭐ (可用 ,偏西医) ⭐⭐⭐⭐⭐ (原生) 多模态广度 ⭐⭐⭐⭐⭐ (极广) ⭐⭐ (偏重文 本/Agent) ⭐⭐⭐⭐ (专 精3D/放射) ⭐⭐⭐⭐ (通 用影像) 24G显存适配 性 32B (4-bit): ✅ 可行 ❌ 不可行 (需 50GB+) ✅ 极佳 (FP16 仅需8GB) 7B: ✅ 完美 34B: ⚠ 勉强 (4-bit) 推荐应用场景 7B (FP16): ✅ 完美 综合诊断辅助、 报告自动生成 (需服务器) 复 杂疑难杂症会 诊 3D病灶量化、 随访影像对比 科研数据清洗、 教学VQA 8. 多模态能力深度评估:DICOM、视频与语音 8.1 DICOM 影像处理机制 用户关心的DICOM支持并非指模型直接读取 .dcm 文件。目前所有开源模型(包括Lingshu和 MedGemma)都要求输入为 Tensor 或 Image (PNG/JPG) 格式。 ● 工作流集成: 在WR5228G3上部署时,需要编写一个Python预处理脚本(使用 pydicom 或 SimpleITK 库)。 ○ 步骤1: 读取DICOM元数据(Patient ID, Modality)。 ○ 步骤2: 提取像素数据,应用窗宽窗位(Windowing/Leveling,如肺窗、骨窗)。 ○ 步骤3: 归一化并转换为模型接受的分辨率(如Lingshu通常支持动态分辨率, MedGemma需Resize)。 ● MedGemma的独特优势: 它是唯一明确设计用于处理 Tokenized Volumes 的模型。这意 味着你可以将一个CT序列的多个切片作为一个Batch输入,模型内部的SigLIP编码器会提取 空间特征。而Lingshu处理CT通常是将其视为多张独立的图片或拼接图。 8.2 手术视频分析 ● 需求: 分析内窥镜或腹腔镜手术视频,识别手术阶段(Phase Recognition)或器械( Instrument Detection)。 ● Lingshu能力: 基于Qwen2.5-VL,Lingshu支持视频输入。用户可以将手术视频抽帧(如每秒1 帧),组合成视频Token序列输入。 ● 资源挑战: 1分钟视频(60帧)可能消耗数千Token。在24GB显存下,运行Lingshu-32B分析 视频极其吃力,KV Cache会迅速耗尽。建议使用 Lingshu-7B 或 HuatuoGPT-7B 处理视频 任务。 8.3 语音交互 (MedASR) ● Lingshu/AntAngelMed: 自身不具备原生语音听力。需搭配 Whisper 或 SenseVoice 等外 部ASR模型。 ● MedGemma生态: Google同步发布了 MedASR 20,这是一个专门针对医疗听写优化的ASR 模型。它能更准确地识别复杂的药物名称和拉丁语术语。 ● 部署建议: 在工作站上,MedASR(约300M-1B参数)可以轻松运行在CPU上,或与 MedGemma-4B共享GPU显存,构建“语音输入 -> 文本转录 -> 模型诊断”的全链路系统。 9. 部署工程实战:WR5228G3 专属方案 本章节提供针对用户特定硬件(Xeon 4510 + RTX Pro 4000 Blackwell 24G)的详细工程指南。 9.1 关键技术:Blackwell 架构下的量化 RTX 4000 Blackwell 支持 FP4。虽然目前的开源推理框架(如llama.cpp, vLLM)对FP4的支持正在 完善中,但成熟的 INT4 和 GPTQ/AWQ 量化在Blackwell上运行效率极高。 ● 推荐格式: GGUF (v2) 或 AWQ。 ○ GGUF: 适合使用 llama.cpp。优势是灵活性高,支持CPU卸载。 ○ AWQ (Activation-aware Weight Quantization): 适合使用 vLLM。优势是GPU推理吞 吐量(Tokens/sec)极高,适合生产环境。 9.2 显存精算表 (VRAM Calculus) 模型配置 权重显存 (GB) 上下文(KV) 预留 推荐 Batch Size 部署可行性 备注 14.5 9.5 GB 16-32 ✅ 完美 19.8 4.2 GB 1 ⚠ 极限 Lingshu-7 B (FP16) Lingshu-3 2B (Q4_K_M) 适合高并发 或长视频 仅限单人对 话,长文需 截断 Lingshu-3 16.0 8.0 GB 4 ✅ 推荐 3-bit量化, 2B (IQ3_M) MedGemm a-4B (FP16) AntAngelM ed-100B (Q2) 8.5 15.5 GB 64+ ✅ 完美 35.0+ N/A N/A ❌ 失败 精度略降但 显存宽裕 适合3D大容 积数据处理 即使2-bit量 化也无法装 入 9.3 部署软件栈推荐 针对WR5228G3的配置,推荐以下两套软件栈: 方案 A:科研与多模态交互 (推荐) ● 后端引擎: llama.cpp (最新版,支持Qwen2.5-VL)。 ● 模型文件: Lingshu-32B-Q4_K_M.gguf。 ● 配置参数: -ngl 99 (全GPU层), -c 4096 (上下文限制在4k以防爆显存)。 ● 优势: 部署极其简单,单文件运行,内存管理智能。 方案 B:高吞吐量与API服务 ● 后端引擎: vLLM (v0.6.0+)。 ● 模型文件: Lingshu-7B-AWQ 或 MedGemma-1.5-4B。 ● 配置参数: --gpu-memory-utilization 0.95 , --enforce-eager (如果Blackwell CUDA图优化 有问题)。 ● 优势: 吞吐量是方案A的2-3倍,适合作为医院内部API服务器供多人调用。 10. 结论与建议 经过对 WR5228G3 工作站 硬件环境与当前开源医疗大模型生态的全面推演,本报告得出以下结 论: 1. 首选模型(通用): Lingshu-32B(4-bit量化版)。 ○ 它是目前在24GB显存限制下,能够获得的最强中文医疗推理能力与最全多模态支持的 平衡点。它能看片、能写报告、懂中医,且通过量化技术恰好能塞进RTX 4000 Blackwell 。 2. 首选模型(专科3D): MedGemma-1.5 (4B)。 ○ 如果用户的核心任务是处理CT/MRI的3D数据或进行影像组学研究,MedGemma是唯一 选择。建议在同一台工作站上同时部署Lingshu(负责文本/2D)和MedGemma(负责3D) ,通过应用层路由请求。 3. 避坑指南: ○ 放弃 AntAngelMed: 不要试图在单卡工作站上运行千亿MoE模型,体验会极差。 ○ 警惕显存陷阱: 务必确认RTX 4000 Blackwell的显存确为24GB。如果是16GB版本,则 Lingshu-32B将无法运行(即使是3-bit量化也很勉强),此时只能降级使用 Lingshu-7B 或 HuatuoGPT-7B。 建议后续行动 ● 立即验证硬件: 运行 nvidia-smi 确认显存大小。 ● 数据准备: 部署DCM4CHEE或其他PACS节点,编写Python脚本打通DICOM到模型的预处理 链路。 ● 安全合规: 本地部署虽保证了数据不出院,但仍需建立严格的访问控制(RBAC),防止AI生成 错误医疗建议导致的法律风险。 参考文献索引: 1 Lingshu ArXiv Paper; 9 Lingshu HuggingFace; 10 Lingshu Project Page; 2 MedGemma Blog; 7 NVIDIA Blackwell Specs; 6 NVIDIA Workstation GPU Specs; 15 MedGemma Model Garden; 3 AntAngelMed Benchmark; 14 AntAngelMed GitHub; 18 HuatuoGPT-Vision; 14 AntAngelMed MoE Details; 11 Qwen2-VL Video Support; 8 Lingshu Architecture; 13 Lingshu GGUF Size. Works cited 1. Lingshu: A Generalist Foundation Model for Unified Multimodal Medical Understanding and Reasoning - arXiv, accessed January 15, 2026, https://arxiv.org/html/2506.07044v1 2. Next generation medical image interpretation with MedGemma 1.5 and medical speech to text with MedASR - Google Research, accessed January 15, 2026, https://research.google/blog/next-generation-medical-image-interpretation-with -medgemma-15-and-medical-speech-to-text-with-medasr/ 3. AntAngelMed: How to Deploy the World-Leading Open-Source Medical LLM in Your Hospital | Efficient Coder - 高效码农, accessed January 15, 2026, https://www.xugj520.cn/en/archives/antangelmed-medical-llm-local-deployment. html 4. General recommended VRAM Guidelines for LLMs - DEV Community, accessed January 15, 2026, https://dev.to/simplr_sh/general-recommended-vram-guidelines-for-llms-4ef3 5. How to Calculate Which AI Model Size (3B, 7B, 13B) Fits Your Computer | by Nilanjpatel, accessed January 15, 2026, https://nilanjpatel-108.medium.com/how-to-calculate-which-ai-model-size-3b-7 b-13b-fits-your-computer-a4797673296e 6. Compare Professional Laptop GPUs for Work | NVIDIA RTX, accessed January 15, 2026, https://www.nvidia.com/en-us/products/workstations/professional-laptops/comp are/ 7. NVIDIA Blackwell Architecture Powers AI Acceleration in Compact Workstations, accessed January 15, 2026, https://blogs.nvidia.com/blog/blackwell-ai-acceleration-workstation-rtx-pro/ 8. Lingshu: A Generalist Foundation Model for Unified Multimodal Medical Understanding and Reasoning - ChatPaper, accessed January 15, 2026, https://chatpaper.com/paper/147467 9. Lingshu: MLLMs for Unified Multimodal Medical Understanding and Reasoning - Hugging Face, accessed January 15, 2026, https://huggingface.co/lingshu-medical-mllm 10. Lingshu, accessed January 15, 2026, https://alibaba-damo-academy.github.io/lingshu/ 11. Feature Request: Add Video Modality Support (Qwen2.5-VL) via llama-mtmd-cli #17660, accessed January 15, 2026, https://github.com/ggml-org/llama.cpp/issues/17660 12. MedGo: A Chinese Medical Large Language Model - arXiv, accessed January 15, 2026, https://arxiv.org/html/2410.20428v1 13. Mungert/Lingshu-32B-GGUF · Hugging Face, accessed January 15, 2026, https://huggingface.co/Mungert/Lingshu-32B-GGUF 14. MedAIBase/AntAngelMed - GitHub, accessed January 15, 2026, https://github.com/MedAIBase/AntAngelMed 15. MedGemma – Vertex AI - Google Cloud Console, accessed January 15, 2026, https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/med gemma?pli=1&jsmode 16. Google's MedGemma 1.5 brings 3D CT and MRI analysis to open-source medical AI, accessed January 15, 2026, https://the-decoder.com/googles-medgemma-1-5-brings-3d-ct-and-mri-analysi s-to-open-source-medical-ai/ 17. MedGemma: Our most capable open models for health AI development - Google Research, accessed January 15, 2026, https://research.google/blog/medgemma-our-most-capable-open-models-for-h ealth-ai-development/ 18. FreedomIntelligence/HuatuoGPT-Vision-7B - Hugging Face, accessed January 15, 2026, https://huggingface.co/FreedomIntelligence/HuatuoGPT-Vision-7B 19. HuatuoGPT-Vision, Towards Injecting Medical Visual Knowledge into Multimodal LLMs at Scale - arXiv, accessed January 15, 2026, https://arxiv.org/html/2406.19280v1 20. Google launches MedGemma update, accessed January 15, 2026, https://www.auntminnie.com/imaging-informatics/artificial-intelligence/news/1581 4722/google-launches-medgemma-update
test1
2026年1月16日 12:16
转发
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
Word文件
PDF文档
PDF文档(打印)
分享
链接
类型
密码
更新密码
有效期
AI