Hai sentito parlare di OpenClaw, il potente modello di intelligenza artificiale specializzato in ragionamento e pianificazione, e vuoi usarlo ma il tuo computer non ha abbastanza potenza? La soluzione perfetta è utilizzare un VPS (Virtual Private Server)! In questa guida passo-passo, ti mostrerò esattamente come fare, anche se non hai esperienza con server o comandi terminale.
Perché Usare un VPS invece del Tuo Computer?
Prima di iniziare, capiamo perché un VPS è l’opzione migliore:
Potenza costante: I VPS hanno risorse dedicate 24/7
Nessun consumo elettrico per te
Puoi lasciarlo girare per giorni senza bloccare il tuo PC
Accesso da qualsiasi dispositivo (telefono, tablet, altro computer)
Facile backup e ripristino
Passo 1: Scegliere il VPS Giusto
Non serve un server costosissimo! Ecco le opzioni migliori per iniziare:
Opzioni Economiche (per testing):
DigitalOcean: Droplet da $6/mese (1GB RAM, 1 CPU)
Linode: Nanode da $5/mese
Hetzner Cloud: CX11 da €4.51/mese
Oracle Cloud: Sempre gratuito (fino a 4 CPU, 24GB RAM)
Per uso serio:
VPS con minimo 8GB RAM
2+ CPU cores
50GB+ spazio disco (SSD consigliato)
Ubuntu 22.04 LTS
Consiglio per principianti: Inizia con DigitalOcean o Oracle Cloud Free Tier!
Passo 2: Configurare il Tuo VPS (Facilissimo!)
2.1 Creare l’account e il server
Vai sul sito del provider scelto
Crea un account (servono carta di credito o PayPal)
Clicca “Create Server” o equivalente
Scegli Ubuntu 22.04 come sistema operativo
Seleziona la dimensione consigliata sopra
Attendi 1-2 minuti… et voilà!
2.2 Accedere al server
Riceverai un’email con:
IP address (esempio: 123.456.789.012)
Password o chiave SSH
Per Windows:
Scarica PuTTY (gratis)
Inserisci l’IP e clicca “Connect”
Digita “root” come username
Incolla la password quando richiesto
Per Mac/Linux:
Apri Terminale
Scrivi:
ssh root@TUO_IPConferma e inserisci la password
Passo 3: Preparare l’Ambiente (Copia e Incolla!)
Una volta dentro il server, copia questi comandi uno per uno:
# Aggiorna il sistema sudo apt update && sudo apt upgrade -y # Installa Python e strumenti essenziali sudo apt install python3-pip python3-venv git curl wget -y # Crea una directory per OpenClaw mkdir openclaw-project cd openclaw-project # Crea un ambiente virtuale Python python3 -m venv openclaw-env # Attiva l'ambiente virtuale source openclaw-env/bin/activate
Cosa stiamo facendo? Stiamo preparando una “sandbox” pulita dove installare OpenClaw senza interferire con altri programmi.
Passo 4: Installare OpenClaw (Semplice!)
Ora installiamo OpenClaw e le sue dipendenze:
# Aggiorna pip pip install --upgrade pip # Installa PyTorch (il motore di AI) pip install torch torchvision torchaudio # Installa Transformers di Hugging Face pip install transformers # Installa altre librerie utili pip install accelerate sentencepiece protobuf # Clona il repository di OpenClaw (se disponibile) git clone https://github.com/TIGER-AI-Lab/OpenClaw.git cd OpenClaw
Nota importante: A volte OpenClaw non è direttamente installabile via pip. In quel caso, useremo il modello da Hugging Face:
# Torna indietro di una directory cd .. # Crea un nuovo file Python nano usa_openclaw.py
Passo 5: Usare OpenClaw con Python (Esempi Pratici!)
All’interno del file che hai creato, incolla questo codice semplice:
# -*- coding: utf-8 -*- """ Script semplice per usare OpenClaw Autore: Il Tuo Nome Data: Oggi """ from transformers import AutoModelForCausalLM, AutoTokenizer import torch def carica_openclaw(): """Carica il modello OpenClaw""" print("🎯 Sto caricando OpenClaw... (potrebbe richiedere alcuni minuti)") # Specifica il modello model_name = "TIGER-Lab/OpenClaw-7B" # Versione più leggera # Carica il tokenizer e il modello tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype=torch.float16, # Usa meno memoria device_map="auto" # Usa GPU se disponibile ) print("✅ OpenClaw caricato con successo!") return model, tokenizer def fai_domanda(model, tokenizer, domanda): """Fai una domanda a OpenClaw""" # Prepara l'input input_text = f"Domanda: {domanda}\nRisposta:" # Tokenizza inputs = tokenizer(input_text, return_tensors="pt") # Sposta sulla GPU se disponibile if torch.cuda.is_available(): inputs = {k: v.cuda() for k, v in inputs.items()} # Genera la risposta with torch.no_grad(): # Risparmia memoria outputs = model.generate( **inputs, max_length=500, # Lunghezza massima risposta temperature=0.7, # Creatività (0.1-1.0) do_sample=True ) # Decodifica la risposta risposta = tokenizer.decode(outputs[0], skip_special_tokens=True) # Estrai solo la parte dopo "Risposta:" if "Risposta:" in risposta: risposta = risposta.split("Risposta:")[-1].strip() return risposta # === PROGRAMMA PRINCIPALE === if __name__ == "__main__": print("=" * 50) print("OPENCLAW SU VPS - DEMO") print("=" * 50) # Carica il modello modello, tokenizer = carica_openclaw() # Esempi di utilizzo domande = [ "Spiegami la teoria della relatività in modo semplice", "Come posso imparare Python in un mese?", "Quali sono i benefici dell'esercizio fisico?" ] for domanda in domande: print(f"\n🤔 DOMANDA: {domanda}") print("-" * 40) risposta = fai_domanda(modello, tokenizer, domanda) print(f"💡 RISPOSTA: {risposta}") print("-" * 40) # Modalità interattiva print("\n" + "=" * 50) print("MODALITÀ INTERATTIVA") print("Scrivi 'exit' per uscire") print("=" * 50) while True: tua_domanda = input("\nTu: ") if tua_domanda.lower() in ['exit', 'esci', 'quit']: print("Arrivederci! 👋") break risposta = fai_domanda(modello, tokenizer, tua_domanda) print(f"OpenClaw: {risposta}")
Salva il file premendo:
CTRL + O(per salvare)Invio(per confermare)CTRL + X(per uscire)
Passo 6: Eseguire OpenClaw!
Ora esegui lo script:
# Assicurati di essere nell'ambiente virtuale source ../openclaw-env/bin/activate # Esegui lo script python usa_openclaw.py
Prima esecuzione: La prima volta scaricherà il modello (circa 15GB per la versione 7B). Lascialo lavorare, potrebbe impiegare 10-30 minuti a seconda della tua connessione VPS.
Passo 7: Ottimizzare le Performance
Se hai poca RAM (meno di 8GB):
Modifica la riga nel codice Python da:
model = AutoModelForCausalLM.from_pretrained(model_name, ...)
a:
model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype=torch.float16, device_map="auto", load_in_8bit=True, # Usa meno RAM! low_cpu_mem_usage=True )
Per usare la GPU (se il tuo VPS ne ha una):
Controlla se hai GPU:
nvidia-smi
Se non mostra nulla, il VPS non ha GPU. Non preoccuparti, OpenClaw funziona anche solo con CPU!
Passo 8: Automatizzare l’Avvio (Opzionale)
Vuoi che OpenClaw parta automaticamente quando accendi il VPS?
Crea un servizio systemd:
sudo nano /etc/systemd/system/openclaw.service
Incolla:
[Unit] Description=OpenClaw AI Service After=network.target [Service] Type=simple User=root WorkingDirectory=/root/openclaw-project Environment="PATH=/root/openclaw-project/openclaw-env/bin" ExecStart=/root/openclaw-project/openclaw-env/bin/python /root/openclaw-project/usa_openclaw.py Restart=always RestartSec=10 [Install] WantedBy=multi-user.target
Poi:
sudo systemctl enable openclaw sudo systemctl start openclaw
Soluzione Problemi Comuni
Problema 1: “Out of memory”
Soluzione: Usa un modello più piccolo o aumenta la RAM del VPS.
Problema 2: Download troppo lento
Soluzione: Usa wget prima dello script:
# Scarica manualmente il modello python -c "from huggingface_hub import snapshot_download; snapshot_download(repo_id='TIGER-Lab/OpenClaw-7B', local_dir='./openclaw-model')"
Problema 3: Non risponde ai comandi
Soluzione: Premi CTRL + C per interrompere, poi riavvia.
Consigli Avanzati per Risparmiare
Spegni il VPS quando non lo usi (con DigitalOcean paghi solo per le ore di utilizzo)
Fai snapshot prima di grandi modifiche
Usa Cloudflare Tunnel per accedere via browser senza aprire porte
Monitora l’uso con
htoponmon
Conclusione
Ecco fatto! Ora hai OpenClaw che gira sul tuo VPS. Ricapitolando:
✅ Hai scelto un VPS adatto alle tue esigenze
✅ Hai installato tutto con pochi comandi copia-incolla
✅ Hai uno script pronto per fare domande a OpenClaw
✅ Sai come ottimizzare per il tuo hardware
La bellezza di questa soluzione è che ora puoi:
Usare OpenClaw dal tuo telefono (via SSH)
Condividere l’accesso con amici
Lasciarlo analizzare documenti per ore senza bloccare il tuo PC
Sperimentare con diverse impostazioni
Hai domande? Problemi? Lascia un commento qui sotto e ti aiuterò volentieri!




