이제 Ollama에서 Llama 3.2 Vision 11B 및 90B 모델을 실행할 수 있습니다.steemCreated with Sketch.

in #kr14 days ago

출처: https://ollama.com/blog/llama3.2-vision

시작하기

Ollama에서 Llama 3.2 Vision 모델을 사용하려면 먼저 Ollama 0.4 버전 이상이 필요합니다. Llama 3.2 Vision을 사용하기 전에 반드시 Ollama를 0.4 버전으로 업그레이드하거나 새로 설치해야 합니다.

Ollama 0.4를 설치한 후 다음 명령어를 실행합니다:

ollama run llama3.2-vision

llama3.2-vision:90b 모델을 실행하려면:

ollama run llama3.2-vision:90b

프롬프트에 이미지를 추가하려면 터미널에 이미지를 끌어다 놓거나 Linux에서는 프롬프트에 이미지의 경로를 추가합니다.

참고: Llama 3.2 Vision 11B에는 최소 8GB의 VRAM이 필요하며, 90B 모델에는 최소 64GB의 VRAM이 필요합니다.

예제

손글씨

handwriting example

광학 문자 인식(OCR)

OCR example

차트 및 표

charts and tables example

이미지 Q&A

image Q&A example

사용법

먼저 모델을 가져옵니다:

ollama pull llama3.2-vision

Python Library

파이썬에서 Llama 3.2 Vision을 사용하려면:

Ollama Python library

import ollama

response = ollama.chat(
    model='llama3.2-vision',
    messages=[{
        'role': 'user',
        'content': 'What is in this image?',
        'images': ['image.jpg']
    }]
)

print(response)

JavaScript Library

자바스크립트에서 Llama 3.2 Vision을 사용하려면:

Ollama JavaScript library

import ollama from 'ollama'

const response = await ollama.chat({
  model: 'llama3.2-vision',
  messages: [{
    role: 'user',
    content: 'What is in this image?',
    images: ['image.jpg']
  }]
})

console.log(response)

cURL

curl http://localhost:11434/api/chat -d '{
  "model": "llama3.2-vision",
  "messages": [
    {
      "role": "user",
      "content": "what is in this image?",
      "images": ["<base64-encoded image data>"]
    }
  ]
}'

Posted using Obsidian Steemit plugin

Sort:  

[광고] STEEM 개발자 커뮤니티에 참여 하시면, 다양한 혜택을 받을 수 있습니다.

Upvoted! Thank you for supporting witness @jswit.