记录运用大模型解决医学报告实例,仅介绍本地调用的情况。
前情提要
已安装 Python
显存不少于8G(8G设备上测试成功,其他环境可以自行测试)。
需要安装Ollama (Ollama 是一个允许在本地运行多模态模型的平台)。
方式1:直接使用Ollama调用
第一步:安装 Ollama
要安装 Ollama,你可以按照以下步骤进行。
下载 Ollama:访问 Ollama 官方网站(https://ollama.com/download)并下载适合操作系统的安装包。
根据安装提示完成安装。
第二步:安装 Llama 3.2-Vision 模型并使用
直接用命令行使用:
采用以下结构命令行:
ollama run model_name task_filepath
例如:
ollama run llama3.2-vision "describe this imag