«

k8s中部署ollama大语言模型底座及配置NFS存储持久化

时间:2025-2-26 17:58     作者:Anglei     分类: 虚拟化


我的实验场景是采用两个deployment类型的POD,并配置20G的NFS共享存储,将ollama的数据路径配置到NFS共享中,从而实现了持久化存储,POD重启后语言模型的相关数据也不会丢失,如有不对的地方欢迎大家一起讨论。

废话不多说,直接上配置文件

创建PV的YAML脚本

apiVersion: v1
kind: PersistentVolume
metadata:
  name: ollama-pv
spec:
  capacity:
    storage: 20Gi
  accessModes:
    - ReadWriteMany
  persistentVolumeReclaimPolicy: Retain
  nfs:
    server: 192.168.1.110
    path: /nfs

创建PVC的YAML脚本

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: ollama-pvc
spec:
  accessModes:
    - ReadWriteMany
  resources:
    requests:
      storage: 20Gi

创建Deployment控制器POD脚本

apiVersion: apps/v1
kind: Deployment
metadata:
  name: ollama-deployment
  labels:
    app: ollama
spec:
  replicas: 2
  selector:
    matchLabels:
      app: ollama
  template:
    metadata:
      labels:
        app: ollama
    spec:
      containers:
      - name: ollama
        image: docker.io/ollama/ollama:latest
        imagePullPolicy: Never
        volumeMounts:
        - mountPath: /root/.ollama
          name: ollama-volume
      volumes:
      - name: ollama-volume
        persistentVolumeClaim:
          claimName: ollama-pvc
---
apiVersion: v1
kind: Service
metadata:
  name: ollama-service
spec:
  type: NodePort
  selector:
    app: ollama
  ports:
    - protocol: TCP
      port: 11434
      targetPort: 11434
      nodePort: 32001

全部apply以上YAML后,进入到创建的其中一个Pod中,下载需要的模型即可,其他pod则就可以直接调用了。

下图为配置好的pod、pv、pvc、service等的截图:

PS: 老机器,所以推理速度慢,十二三代的INTEL的CPU会快些。

本文完结,相关标签: NFS k8s Ollama

 版权所有:Anglei
 文章标题:k8s中部署ollama大语言模型底座及配置NFS存储持久化
 除非注明,本站文章如未特殊说明均为 MAXADA社区知识库 原创,且版权所有,请勿用于任何商业用途。

推荐阅读:

看完后感想如何?

路过(0)

雷人(0)

握手(1)

鲜花(0)

鸡蛋(0)
分享到: