AttributeError: st.session_state has no attribute “history”. Did you forget to initialize it?
问题 AttributeError: st.session_state has no attribute "history". Did you forget to initiali…
目标 路径 时间 结果 信息 定位 闭环 复盘 精力 极限 稳态 框架 邮箱:linqingyang@datagov.top
问题 AttributeError: st.session_state has no attribute "history". Did you forget to initiali…
问题 运行了多个jupyter lab notebook后,发现out of memory 显存不够了,意识到GPU被无用的进程占用 通过nvidia-smi发现,gpu任务占用列表为空,看不到占用情…
问题 爆显存(CUDA OOM)什么原因? 原因 A:如果执行程序报错OOM显存不足,那么最简单的调试办法是设置batch size=1然后逐步增大,观察跑到多大bs时OOM,以此为依据再决定升配成多…
参与AutoDL文档: 开放端口 由于实例无独立公网IP,因此不能任意开启额外的端口。但是AutoDL为每个实例都预留了一个可对外暴露的端口,技术实现为将实例中的6006端口映射到公网可供访问的ip:…
GitHub: https://github.com/langchain4j/langchain4j 文档:docs.langchain4j.dev 教程:https://docs.langchain…
原文地址:https://zhuanlan.zhihu.com/p/441153412
问题 AutoDL HuggingFace连不上,无法下载ChatGLM3-6B模型 原因 网络原因,无法访问 解决方案 使用ModelScope社区镜像下载 模型下载代码 pip install m…
作业描述 使用官方提供的示例,成功微调出广告数据集,要求使用 Lora 进行微调: 你能看到 loss 的下降,并在最终回到 3.2 左右。 你需要自己适配 inference.py 中的代码,并迁移…
报错日志 You are using an old version of the checkpointing format that is deprecated (We will also silen…
国内近200家大模型总结 本文总结了188家国内现有大模型企业,以及各企业开发的模型和所处行业。受公众号排版限制不能使用表格,需要购买表格版的朋友请私信我。 序号 公司 大模型 省市 类别 1 百度 …
了解 Copilot 提示 Copilot 提示是用于告诉 Copilot 所需内容的说明或问题。 提示可以包括四个部分:目标、上下文、期望和源,如下图所示: 可以在提示中添加一点或很多内容,但只需要…
2024年3月21日 微信文章 Prompt工程师压箱底绝活——Prompt的基本组成部分、格式化输出与应用构建 提示词编写规则 提示词编写示例 测试提示词方法和平台 要测试提示词,使用国内任何一家提…
完成大模型微调训练营第0期的学习,拿到毕业证书啦!!!回味无穷,没有辜负购课时候的目标🎯,工作中都用上了,但是还得继续不断消化实践,推荐~
在极客时间 AI 大模型微调训练营学习一学期下来,目前就要结束了,现对于整个学期做个总结如下: 1、目前在什么岗位做什么? 目前在做 1、AI业务场景落地 2、提效AI开发的产品平台。 2、为什么选择…
一、选择题 1、n-gram 模型中的“n”通常代表什么? A. 神经网络的层数 B. 词汇表的大小 C. 上下文中的词数 D. 可选的参数数量 2、最大似然估计在 n-gram 模型中的主要目的是什…
一、DeepSpeed介绍 DeepSpeed 是 PyTorch 的开源深度学习优化库。 该库旨在降低计算能力和内存使用,并在现有计算机硬件上训练具有更好并行性的大型分布式模型。 DeepSpeed…
数据集名称:mozilla-foundation/common_voice_11_0 数据集地址:https://huggingface.co/datasets/mozilla-foundation/…
CG animation of an orange red giant Chinese dragon swimming on the lake surface, the dragon huge and…
斯坦福大学做出来一个几乎没有幻觉的大语言模型:WikiChat WikiChat 在与人类用户聊近期的一些话题时,事实准确性高达 97.9% ,比 GPT-4 高出 55.0%,用户评价也更高。Wik…
作者写了一篇论文:Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 总结下来就是 26 条有效…