Recentemente, nel campo tecnico, tutti parlano di OpenClaw (soprannome pubblico 'Gambero'), molti amici chiedono quale sia la differenza tra esso, ChatGPT, Google AI, DeepSeek o Doubao. Riassumendo la mia recente esperienza con Mac Mini M4, parlerò dettagliatamente del suo posizionamento, delle soglie di implementazione e dei vantaggi e svantaggi delle due principali meccaniche di gioco. Quando supererò il livello con il gambero, scriverò una guida molto dettagliata da condividere con tutti, e questo articolo è solo per familiarizzare tutti con il concetto. Gli amici che conosco sanno che Mo Go esplora grandi modelli, e in azienda web2 si occupano anche di questo. Questa volta ho deciso di utilizzare il mio Mac Mini M4, che era semplicemente inutilizzato. Primo: cos'è un 'gambero'? Qual è la differenza con ChatGPT/Google/DeepSeek? In parole semplici, se confrontiamo l'AI con un essere umano: ChatGPT / Google Gemini / DeepSeek / Doubao: essi sono il cervello (grandi modelli LLM). La loro funzione principale è pensare, generare testo o codice. Vivono in una finestra di chat, fai domande, rispondono. Recentemente ho condiviso che si può ottenere un anno di Google Gemini Pro per 10 grivna, è un modo passivo. OpenClaw ('gambero'): sono braccia e gambe (cornice dell'agente AI). Di per sé non ha intelligenza, è un programma che lavora in background sul tuo computer. La principale differenza: ChatGPT può solo dire come fare, mentre il gambero può aiutarti a farlo. Il gambero comprende i tuoi comandi, richiamando l'API del cervello, e poi controlla il browser, clicca sulle pagine web, legge file locali, controlla Twitter, invia e riceve automaticamente messaggi su Telegram/Wechat. È un lavoratore digitale che lavora 24 ore su 24. Secondo: dispositivi per il dispiegamento: perché scegliere Mac Mini M4? Per dispiegare il gambero è necessario un computer che possa funzionare a lungo. Il Mac Mini M4 è attualmente un dispositivo molto ideale, ci sono tre motivi: Basso consumo energetico (sempre in modalità operativa): il gambero ha bisogno di lavorare in background 24 ore su 24 (ad esempio, per monitorare la dinamica delle criptovalute o elaborare risposte automatiche), la potenza consumata dal Mac Mini è molto bassa, non consuma quasi elettricità, quindi è molto adatto per un server domestico. Ecologicità: è un sistema Unix, il supporto per Docker, Node.js e altri ambienti di sviluppo è migliore rispetto a Windows, ci sono meno errori. Silenzioso: funziona senza alcun rumore in un angolo. Terzo: descrizione dettagliata delle due modalità di dispiegamento: locale vs API (attenzione principale: costi e bilanciamento dell'intelligenza) Questo è il luogo in cui i principianti cadono più spesso nella trappola. Il cervello dei gamberi ha due fonti principali: 1. Modalità modello locale (Local LLM) Principio: utilizzare la potenza di calcolo NPU/GPU del Mac Mini per eseguire modelli aperti (come Llama 3, DeepSeek-Distill, ecc.) come cervello del gambero. Costi: completamente gratuito. Oltre all'elettricità, non è necessario pagare alcun costo API. Esperienza di test (Mac Mini M4): non consigliato come principale. Anche se il chip M4 è molto potente, è limitato dalla memoria (memoria unificata), di solito può funzionare senza problemi solo con piccoli modelli con parametri 7B o 8B. In precedenza ho utilizzato il Mac Mini per dispiegare grandi modelli, a causa di problemi di configurazione sono riuscito a dispiegare solo modelli con parametri relativamente bassi, come 7B/8B, il che ha fatto sembrare il modello molto stupido, 32B non si avviava affatto, la memoria si riempiva e il computer si bloccava. Svantaggi: questi piccoli modelli spesso non comprendono correttamente, saltano informazioni o creano illusioni nell'elaborazione di logiche complesse (ad esempio, 'analizza questo lungo articolo e riassumi tre vantaggi chiave'). Conclusione: utilizzare un piccolo modello locale per il gambero è simile a assumere uno stagista molto diligente, ma non molto intelligente, molto diligente ma inefficace. 2. Modalità API (Cloud LLM) - altamente raccomandata Principio: il Mac Mini è responsabile dell'esecuzione del programma del gambero (braccia e gambe), e durante il pensiero richiama il modello più potente nel cloud (come Google Gemini 3 Pro, GPT-4o, Claude 3.5) attraverso la rete. Costi: è necessario pagare (ma ci sono trucchi). Di solito il pagamento avviene per token (numero di parole), più usi, più costoso. Trucchetto per risparmiare: al momento, l'API Google Gemini ha un livello gratuito (Free Tier), per gli utenti personali che eseguono il gambero, è quasi gratuito e molto veloce. Esperienza di test: decolliamo. Le capacità logiche dei grandi modelli nel cloud superano notevolmente i piccoli modelli locali. Il gambero è diventato molto intelligente, può eseguire con precisione comandi complessi, scrivere codice, analizzare documenti lunghi. Quattro, sintesi e raccomandazioni Se hai anche un Mac Mini M4, non cercare di usarlo per un duro addestramento o inferenza di grandi modelli, non funzionerà. (Questo l'ho comprato in precedenza per fare mining😄) Il modo più intelligente di giocare: Usa il Mac Mini M4 come piattaforma di partenza. Usa la sua caratteristica a basso consumo energetico per lavorare 24 ore su 24 con la piattaforma software OpenClaw, e poi collega Google Gemini (costo elevato) o GPT-4/Claude (alta prestazione) API. In questo modo, ottieni il controllo sulla privacy dei dati (programma sul computer locale) e il massimo livello di intelligenza AI (cervello nel cloud), è la forma più pratica di agenti AI oggi. Non so se lo hai capito, questo è un articolo introduttivo, non è tecnico, quest'anno ho pianificato di completare con il gambero, aspetta la mia guida passo dopo passo.
#OPENCLAW #MACMINI #DeepSeek #Gemini #大漠茶馆