处理 Rancher 连接节点 "Cluster agent is not connected"
故障场景描述在 K3s 集群经历长时间运行(如 2 年以上)或底层容器运行时(Containerd)崩溃重启后,Rancher 界面显示集群状态为 Unavailable,错误提示通常为 "Cluster agent is not connected"。 故障诊断流程第一阶段:排查 K3s 节点健康度在手动处理 Rancher 连接前,必须确保 K3s 核心服务已恢复。 检查容器运行时状态: 12# 如果报错 connection refused,说明 containerd 没起crictl ps 检查孤儿挂载点(Device busy): Kubelet 频繁报错 device or resource busy 会导致 API Server 响应极慢,进而撑挂 Rancher 隧道。 12# 查找并懒卸载残留路径grep "kubelet/pods" /proc/mounts | awk '{print $2}' | xargs -I {} umount -l ...
ChatGPT
ChatGPT 是什么?这个问题,我觉得可以放上 ChatGPT 的亲自答: 我是 Assistant,一个由 OpenAI 训练的大型语言模型。我可以回答您的问题,并帮助您了解更多关于特定主题的信息。我并不具备自己的意识,只能通过我所学到的知识来回答问题。如果您有任何其他问题,请随时问我。我很乐意帮助您。 —ChatGPT OpenAI 又是什么?再来看看 ChatGPT 是怎么回答的: OpenAI 是一家人工智能研究机构,致力于通过研究人工智能技术来推进人类的发展。它由一群来自业界和学术界的研究人员和专家组成,包括伯克利加州大学的 Yann LeCun 和加州理工学院的 Ian Goodfellow 等。OpenAI 的目标是通过开发智能系统来提高人类生活的质量,并帮助人类应对未来的挑战。它已经开发了许多不同的人工智能技术,其中包括机器翻译、自然语言处理、图像分类和语音识别等。OpenAI 还与其他研究机构和企业合作,共同开发更多的人工智能技术。 —ChatGPT 如何注册 ChatGPT要注册使用 ChatGPT,需要做好以下准备:全局代理(推荐美国节点)一个邮箱...
llamafile 使用指南 - 一键运行的开源AI大模型
摘自:https://www.bingal.com/posts/ai-llamafile-usage/ llamafile 是什么?llamafile 是一种AI大模型部署(或者说运行)的方案, 与其他方案相比,llamafile的独特之处在于它可以将模型和运行环境打包成一个独立的可执行文件,从而简化了部署流程。用户只需下载并执行该文件,无需安装运行环境或依赖库,这大大提高了使用大型语言模型的便捷性。这种创新方案有助于降低使用门槛,使更多人能够轻松部署和使用大型语言模型。 llamafile 怎么用?举个运行 Yi-6B-Chat 的例子目前已发布了多个模型,可以在这里下: huggingface.co modelscope.cn 为了更方便体验,本示例选了 Yi-6B-Chat.Q4_0.llamafile 这个模型, 只有 3.45GB, CPU 运行也只需要 4G 内存即可。模型地址:Yi-6B-Chat.Q4_0.llamafile 1、第一步,下载模型 Yi-6B-Chat.Q4_0.llamafile 2、第二步,运行 linux 或 mac 要先添加执行权限 ...
用 Ollama 轻松玩转本地大模型
摘自:https://sspai.com/post/85193 前言Ollama 一个简明易用的本地大模型运行框架。 随着围绕着 Ollama 的生态走向前台,更多用户也可以方便地在自己电脑上玩转大模型了。 快速上手Ollama【win(preview) / mac / linux】 下载页面:https://ollama.com/download Docker也可以直接使用其官方镜像。 docker模式下,指令可直接在docker exec -it ollama下运行 当你运行 ollama --version 命令成功查询到版本时,表示 Ollama 的安装已经顺利完成,接下来便可以用 pull 命令从在线模型库下载模型来玩了。 以中文微调过的 Llama2-Chinese 7B 模型为例,下述命令会下载接近 4GB 的 4-bit 量化模型文件,需要至少 8GB 的内存进行推理,推荐配备 16GB 以流畅运行。 1% ollama pull llama2-chinese 下载完成后,使用 run 命令运行模型,可直接将消息附在命令后,或留...
教你如何零成本从0到1,开发上线一个对接了openAI的机器人
演示项目地址 如果该项目对你有帮助,请点个star支持下吧! 线上体验地址:https://www.wang-xiaowu.site/chat-gpt/ 仓库地址:https://github.com/behappy-project/behappy-chatgpt-assistant 技术沟通群二维码:https://raw.githubusercontent.com/wang-xiaowu/picture_repository/master/behappy_group.jpg 移动端 pdf格式无法展示动图:可点击该地址进行查看 PC端 pdf格式无法展示动图:可点击该地址进行查看 教程实现效果 pdf格式无法展示动图:可点击该地址进行查看 前置准备openai注册 关于注册账户可以查看我的这篇文章 不建议花钱买账户,一个是不确保它稳定。二来你花点时间熟悉这个东西也是帮助你长进的过程 API_KEY 地址:https://platform.openai.com/account/api-keys 登录点击个人头像,进入View API keys 首次进入...
大语言模型中role为user,assistant,system的区别
在大语言模型中,通常涉及到三种角色:用户(user)、助手(assistant)和系统(system)。它们的区别在于其在对话或交互过程中扮演的角色和功能。 系统(system) 系统是指整个大语言模型或者其中的某个部分,负责处理用户输入并生成相应的输出。 明确对话的主题或领域(例如,技术支持、教育、娱乐等) 指示模型扮演特定角色(例如,老师、顾问等)。 用户(user) 用户是指与系统进行交互的个体或实体,通常是真实的人类用户或其他系统。 用户通过输入文本、语音或其他形式与系统进行沟通,提出问题、请求信息或执行操作。 助手(assistant) 助手是一种程序或系统组件,设计用来协助用户完成特定的任务、获取信息或提供服务。 助手通常具有自然语言处理能力,能够理解用户的输入,并根据输入提供相应的反馈、建议或执行操作,是模型生成响应的地方。 示例: 1234567891011121314151617181920212223242526 curl -s https://api.openai.com/v1/chat/completions \ -H "Conten...
nexus3配置docker
安装nexus3 docker 123456789101112131415161718192021mkdir -p /usr/local/nexus3chown -R 200 /usr/local/nexus3docker run -d \--privileged=true \--name=nexus3 \-u root \-p 8081:8081 \# 这几个端口给docker私有仓库使用,故在需要使用 Docker 的机器上修改 `/etc/docker/daemon.json`:{"insecure-registries": ["你的服务器IP:8001", "你的服务器IP:8002", "你的服务器IP:8003"]}-p 8001:8001 \-p 8002:8002 \-p 8003:8003 \# 启动容器时加入时间挂载,使用宿主机时间-v /etc/localtime:/etc/localtime:ro \-v /usr/share/zoneinfo/Asia/...
uv使用
UV 全面实战指南 (Python 下一代构建工具)安装 (Installation)pip安装方式123pip install uv# uv管理的依赖,会要求rust环境,安装rust(optional):curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh 脚本安装 官方推荐使用独立脚本安装。这样可以确保 uv 自身不依赖于特定的 Python 环境,且更新方便。但对于仅希望uv作为类似npm类包管理工具的话,个人觉得还是依赖python安装用一点。 macOS / Linux: 1curl -LsSf https://astral.sh/uv/install.sh | sh Windows (PowerShell): 1powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex" 安装后验证: 12uv --version# 输出示例: uv ...
rancher的安装
官网的话:Rancher 是为使用容器的公司打造的容器管理平台。 安装rancherdocker单节点安装 如果容器内的80端口映射到宿主机的 8xxx,那么容器内的443端口要映射到宿主机的 8443。如果容器内的80端口映射到宿主机的 9xxx,那么容器内的443端口要映射到宿主机的 9443。 docker 123456##############使用存储卷###############docker run -d --privileged --name rancher-server \--restart=unless-stopped \-p 8080:80 -p 8443:443 \-v /opt/rancher:/var/lib/rancher \rancher/rancher:v2.6.3 docker-compose 1234567891011services: rancher-server: image: rancher/rancher:v2.6.3 container_name: rancher-server privilege...
SpringBoot+K8S中的滚动发布、优雅停机、弹性伸缩、应用监控、配置分离
参考: https://mp.weixin.qq.com/s/D8efjj9ZhLyEu7zEqWvJiQ https://stackoverflow.com/questions/71860152/actuator-health-endpoint-returns-out-of-service-when-all-groups-are-up https://docs.spring.io/spring-boot/docs/2.6.x/reference/htmlsingle/#actuator.endpoints.kubernetes-probes 本文使用 K8s + SpringBoot 实现零宕机发布:健康检查 + 滚动更新 + 优雅停机 + 弹性伸缩 + Prometheus监控 + 配置分离(镜像复用) 健康检查 健康检查类型:就绪探针(readiness)+ 存活探针(liveness) 探针类型:exec(进入容器执行脚本)、tcpSocket(探测端口)、httpGet(调用接口) 业务层面项目依赖 pom.xml 1234<dependency> ...
