你了解大语言模型么,可以谈谈你对大模型的边界有什么看法?
1.1 回答思路
1、讲你的理解
2、用你的项目/知道的项目举例子,千万不要只讲1要不然太大无法收敛
1.2 回答示例
1、我觉得大模型的边界主要体现在4个方面:
(1)技术层面存在一些问题。例如容易出现 事实幻觉
、上下文窗口有限
、难以处理长文档
、复杂的多轮对话
、知识更新不及时
,缺乏最新信息。
本质上是 基于语言模式的预测
,没有真正的 推理能力
和 因果判断能力
。在长对话中容易出现 前后矛盾
或 上下文丢失
,无法主动获取外部数据。
(2)产品应用,模型生成受prompt影响大、不适合结构化场景、响应延迟高不适合频次高、低价值场景;对于特定的医疗金融场景需要强化后处理和规则过滤以防止输出敏感、冒犯性、不合规内容。
(3)伦理合规及封面层面,涉及数据合规、用户隐私保护、生成内容风险等。
(4)大语言模型擅长做的事情:推理、语义理解、生成、总结,所以非常适合在知识类和执行类的任务中进行落地。
2、在我参与保险领域对话助手的项目中,我们曾遇到 LLM 生成“错误理赔建议”的问题,因此我们增加了RAG机制,并做了回答可视化溯源,以提升可信度。
3、所以,LLM 虽然是强大的工具,但在产品应用中,理解边界才能做出更合理的设计决策,例如是否加外部知识库、是否启用人审、是否做提示模板化等等。
评论区