
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文将带领您了解如何迅速在Windows平台上部署Ollama,这是一个开源的大语言模型(LLM)运行工具,以及如何通过Open WebUI和cpolar内网穿透技术,让您在任何地方都能访问您本地部署的AI语言模型,如llama2和千文qwen。

GPT是基于Transformer架构的模型。Transformer是一种自注意力机制的模型,它能够捕捉序列中不同位置的依赖关系,这使得它在自然语言处理(NLP)任务中表现尤为出色。
今天给大家系统地介绍了一本AIGC的各方面内容的书—《AIGC原理与实践:零基础学大语言模型、扩散模型和多模态模型》,这本书从基础知识到应用实践,从基本原理到案例分析,力求通过简洁明了的语言、清晰生动的例子,引导读者逐步掌握AIGC的精髓。

今天给大家系统地介绍了一本AIGC的各方面内容的书—《AIGC原理与实践:零基础学大语言模型、扩散模型和多模态模型》,这本书从基础知识到应用实践,从基本原理到案例分析,力求通过简洁明了的语言、清晰生动的例子,引导读者逐步掌握AIGC的精髓。

Gemma 是一个轻量级、先进的开放模型系列,采用与创建 Gemini 模型相同的研究和技术构建而成。Gemma 由 Google DeepMind 和 Google 的其他团队开发,以拉丁语 gemma(意为“宝石”)命名,中文名杰玛。Gemma 模型权重由促进创新、协作和负责任地使用人工智能 (AI) 的开发者工具提供支持。

AIGC 时代,大模型技术已成为企业数字化转型的关键。然而,大模型的选型、适配和应用对企业而言仍是挑战。本文将深入探讨如何选择、适配和落地大模型,为企业提供全面的大模型应用指南。
本文为解码 LangChain 系列,将深入探讨如何借助 LangChain 与 Milvus 的力量增强 LLM 应用,以及如何构建和优化 AIGC 应用的小秘籍!

GPT-4o和谷歌Gemini不断宣传现阶段AI能力大幅度提高,那么这两家,谁的大模型能力更强呢?这篇文章里,作者就展开了多维度的测试和体验,想了解的同学,可以来看一下。

相对于,首先更改了embedding的方式,由Gemini换成了zhipu,Gemini的人工zz嵌入模型实在太离谱了,把none选项改成了包含历史对话而不仅仅是一问一答,增加了对于pdf和md文件的的导入然后转换为检索词向量库(chroma)。新增加了一个prompt的文本框,我感觉默认的值其实已经不错了。

在机器学习领域当中,微调(Fine-tuning) 是指在已经训练好的模型基础上,进一步调整,让你模型的输出能够更符合你的预期。透过微调,我们可以不用重新训练一个新的模型,这让我们能够省去训练新模型的高昂成本。微调的方式很简单,你只需要准备成对的训练资料。然后喂入Fine-tuning API 就可以完成了。这边指的成对资料,是输入搭配输出,输入「亚洲最帅的三个男人是谁?」这个输入,以及在收到这样
