Home Tecnologia Non ne avevo bisogno, ma ho usato l’intelligenza artificiale per stampare in...

Non ne avevo bisogno, ma ho usato l’intelligenza artificiale per stampare in 3D una mia piccola statuetta: ecco come

15
0

David Gewirtz/ZDNET

Segui ZDNET: Aggiungici come fonte preferita su Google.


I principali punti salienti di ZDNET

  • L’intelligenza artificiale può trasformare una singola foto in una statuetta 3D stampabile.
  • Diversi sistemi di intelligenza artificiale alimentano silenziosamente ogni fase del processo.
  • Gli strumenti per i consumatori rendono questo flusso di lavoro accessibile a casa.

Scrivere per ZDNET ha molti vantaggi. Uno dei miei preferiti è la possibilità di provare nuove tecnologie e di riferirti su come funzionano. Nella maggior parte dei casi, queste tecnologie hanno un utilizzo produttivo. Ma a volte, riesco a provare qualcosa che non può essere giustificato in alcun modo, a parte il fatto che è bello.

Questo è il progetto di oggi. In questo articolo, ti mostrerò come ho iniziato con una mia foto, ho usato un po’ di intelligenza artificiale intermedia e l’ho trasformata in una mia figurina fisica di plastica 3D. Ho bisogno di una mia statuina? No. È bello? Sì. Mostra un’altra capacità dell’intelligenza artificiale? Sì.

Anche: Perché questa sneaker stampata in 3D progettata dall’intelligenza artificiale da $ 190 mi ha sorpreso

Sarò onesto. Non mi aspettavo che il mio editore approvasse questa proposta. Ma visto che lo ha fatto, divertiamoci un po’. Se hai una stampante 3D, puoi seguire gli stessi passaggi e trasformarti anche tu in una statuetta di plastica.

Vieni su ZDNET. Ti insegneremo cose che non ti saresti mai aspettato, ma di cui ora non puoi fare a meno.

Immagine iniziale assistita da drone AI

Ho deciso di iniziare con la seguente immagine. Siamo in un inverno grigio qui in Oregon in questo momento. La soleggiata natura all’aperto di questa immagine mi tira su di morale.

immagine-giardino

David Gewirtz/ZDNET

Questo non è un selfie qualsiasi. La foto è stata scattata dal drone DJI Neo in modalità autonoma, volando davanti a me mentre camminavo e registrare un video su YouTube. Il drone è stato in grado di mantenere un volo stabile, una distanza stabile davanti a me e di volare all’indietro, tutto grazie alla visione artificiale integrata e alle capacità di intelligenza artificiale.

Anche: Possiedi un drone DJI? Ecco come ti colpisce oggi il divieto FCC

L’immagine che ho scelto period solo un fotogramma di quel video narrativo di 20 minuti.

Perfeziona l’immagine

Per preparare l’immagine per l’utilizzo da parte dello strumento che l’avrebbe trasformata in un modello 3D, volevo assicurarmi che la rappresentazione di me reale fosse adatta. Per fare ciò, ho inserito l’immagine in ChatGPT e ho utilizzato il nuovo strumento Immagini GPT 5.2.

Inoltre: ho testato le nuove immagini ChatGPT: è un miglioramento straordinario ed estremamente divertente

Per prima cosa ho chiesto a ChatGPT di darmi le gambe e rimuovere lo sfondo. Gli ho dato istruzioni di “rimuovere lo sfondo, mettere l’uomo su uno sfondo bianco, completare le sue gambe con pantaloni che scendono fino alle caviglie e scarpe da ginnastica nere. Assicurati che la fotocamera sia direttamente di fronte (questa immagine ha la fotocamera leggermente più alta dell’uomo). Mostralo fermo, non mentre cammina”.

Questo mi ha dato la prima immagine mostrata sotto, a sinistra.

chatgpt

Schermata di David Gewirtz/ZDNET

Successivamente, temevo che l’illustrazione rossa sulla parte anteriore della maglietta avrebbe causato problemi con l’eventuale stampa 3D. Inoltre non volevo che stampasse l’orologio o il piccolo microfono. Quindi ho detto a ChatGPT: “Rimuovi orologio, microfono e emblem sulla parte anteriore della maglietta. Mantieni la stessa faccia”.

Anche: I migliori generatori di immagini AI del 2026: ora c’è un solo chiaro vincitore

Il risultato è l’immagine centrale sopra. Sfortunatamente, ho pensato che la maglietta fosse troppo semplice, quindi ho fatto sovrapporre ChatGPT al emblem del mio canale YouTube, che è un robotic in una stampante 3D. Ho detto a ChatGPT: “Aggiungi il emblem sulla parte anteriore della maglietta. Mantieni la stessa faccia”.

Questa è diventata l’immagine all’estrema destra. Tieni presente che ho detto esplicitamente a ChatGPT di mantenere la stessa faccia. Ho notato che se non dico esplicitamente a ChatGPT di mantenere la stessa faccia, si prende delle sfortunate libertà.

L’immagine all’estrema destra è l’immagine che ho scelto di trasformare in un modello 3D.

Immagine per modello

Esistono numerosi servizi che trasformeranno una foto in un modello 3D. Quella che ho utilizzato mi viene fornita gratuitamente dal produttore di alcune stampanti 3D che possiedo, Bambu Lab. Possiedo il Bambu Lab X1 Carbonio e il nuovo, e più grande, Bambu Lab H2D. Dato che Bambu aveva il software program e avrebbe generato un modello ottimizzato per la mia stampante, sembrava una decisione un gioco da ragazzi.

Anche: È un’immagine AI? 6 segni rivelatori che è un falso – e i miei rilevatori gratuiti preferiti

Ho iniziato navigando nel mio browser fino a Il servizio MakerLab di Bambu. Ho aspettato che il banner scorrevole visualizzasse PrintU e ci ho cliccato sopra.

printu

Schermata di David Gewirtz/ZDNET

Posso capire perché Bambu chiama questa funzione PrintU, perché puoi usarla per stamparti. Ma qui negli Stati Uniti, di solito aggiungiamo la lettera U a un’università, quindi la funzione assomiglia più a Print College, che implica una sorta di strumento di formazione, piuttosto che a PrintYou, che potrebbe implicare che avresti fatto un piccolo te, o, in questo caso, me.

Anche: Questo sistema operativo alimenta silenziosamente tutta l’intelligenza artificiale e anche la maggior parte dei futuri lavori IT

In ogni caso, una volta entrato nell’interfaccia di PrintU, ho cliccato sul pulsante più per creare un nuovo progetto. Ho scelto Picture Pose tra le opzioni disponibili. Ho aspettato qualche minuto affinché il sito creasse una versione bidimensionale, in stile cartone animato, dell’immagine originale.

nuovo progetto

Schermata di David Gewirtz/ZDNET

Il viso non period esattamente il mio, ma period una caricatura abbastanza giusta. Penso che abbia fatto un ottimo lavoro nel riprodurre il mio corpo e sono rimasto molto colpito da come il gilet fosse una riproduzione quasi perfetta. L’immagine centrale è una versione grafica computerizzata della mia caricatura. L’immagine giusta, generata dopo aver fatto clic su Genera modello 3D, è un vero modello 3D pronto per la stampa.

È qui che Bambu Lab diventa un po’ più confuso. Per modificare il modello è necessario utilizzare i crediti MakerLab. Quando crei un account su MakerLab, ti vengono assegnati un sacco di crediti. Quindi, se pubblichi oggetti sul sito, puoi ottenerne altri. Non ho trovato alcun modo per acquistare crediti, ma sono sicuro che sia una funzionalità da qualche parte.

crediti

Schermata di David Gewirtz/ZDNET

In ogni caso avevo 170 crediti. Modificare il mini-me ha richiesto solo 10 crediti, quindi sono andato avanti. Lascio che PrintU AI elabori la mia foto e generi un modello 3D.

Scelta dei colori ed esportazione

La maggior parte delle stampanti 3D di fascia bassa supporta solo la stampa di un colore alla volta. Ma nell’ultimo anno circa, c’è stata un’impennata di stampanti 3D multicolori a prezzi accessibili che supportano fino a quattro colori. Avevo intenzione di utilizzare la mia H2D, che ha due sequenziatori di filamenti a quattro colori, in modo da poter utilizzare fino a otto colori.

Anche: 5 modi per utilizzare l’intelligenza artificiale per modernizzare i tuoi sistemi legacy

Fin dal processo di progettazione, PrintU ha assegnato alla mia immagine nove colori. Non mi è piaciuto molto come sono stati distribuiti.

9 colori

Schermata di David Gewirtz/ZDNET

Fortunatamente, puoi sostituire i colori a piacimento. La mia intenzione period quella di utilizzare quattro colori, soprattutto perché non vedevo il bisogno di averne più di quattro. In PrintU puoi aggiungere e rimuovere colori, ecco cosa ho fatto. Ciò mi ha lasciato un modello che avrei potuto esportare.

Preparazione per la stampa 3D

La stampa 3D, in particolare la stampa 3D basata su filamenti, è il processo di estrusione di uno strato dopo l’altro di plastica fusa, uno strato sopra l’altro. Esiste un programma chiamato “affettatrice” che converte un modello tridimensionale in fette, gli strati, e quindi genera le istruzioni del codice G che dicono alla stampante come operare.

Gli slicer più moderni, in particolare quello utilizzato da Bambu Lab, supportano una varietà di funzionalità additional. Quella più appropriata a questo progetto è la capacità di “dipingere” i colori, che l’affettatrice poi converte in istruzioni macchina.

Anche: I migliori corsi e certificati gratuiti sull’intelligenza artificiale per il miglioramento delle competenze nel 2026 e li ho provati tutti

Il file della stampante 3D generato da PrintU period abbastanza buono. L’unica cosa che non mi è piaciuta è stata l’assenza di bulbi oculari. Puoi vederlo nell’immagine a sinistra. Quindi ho aperto lo strumento di pittura e ho semplicemente punteggiato due bulbi oculari neri nell’immagine, che puoi vedere a destra. Ho pensato di rendere bianco lo sfondo degli occhi, ma non mi sembrava necessario per una figura che non sarebbe stata alta più di 18 pollici.

bulbi oculari

Schermata di David Gewirtz/ZDNET

Quando si stampano strati di filamento fuso, è necessario tenere conto della gravità. Se provi a infilare il filamento fuso su uno spazio vuoto, si affloscerà o gocciolerà naturalmente. Il modo in cui le affettatrici risolvono questo problema è producendo strutture di supporto per sostenere gli elementi sovrastanti.

Una volta terminata la stampa, i supporti vengono rimossi. In questa immagine puoi vedere sia i supporti, all’esterno dell’immagine, sia un motivo di riempimento. Il riempimento è inoltre progettato per sostenere gli strati stampati sopra, sempre a causa della natura cadente della plastica fusa.

cleanshot-2026-01-13-at-22-54-412x

Schermata di David Gewirtz/ZDNET

Poiché ho una stampante in grado di supportare fino a otto bobine contemporaneamente, ho potuto aggiungere uno speciale materiale di interfaccia di supporto bobina. Si tratta di una sostanza che viene stampata nella parte superiore del supporto, subito sotto il filamento che ha il compito di sorreggere. Ciò che lo rende speciale è che il materiale dell’interfaccia di supporto non si fonde con la plastica della statuetta, rendendo molto più semplice la rimozione dei supporti.

Anche: 10 piccoli gadget senza i quali non esco mai di casa (e come funzionano)

Con Bambu Lab H2D, non solo ho utilizzato una bobina additional di materiale di supporto, ma ho anche incluso una bobina additional di filamento nero. L’H2D ha la capacità di spostarsi automaticamente da una bobina all’altra se esaurisce il filamento. Poiché circa la metà del progetto utilizza filamento nero, è stato utile inserire una bobina additional nella stampante come riserva nel caso in cui il primo rotolo fosse esaurito.

Ci sono voluti circa tre giorni. Il risultato sembrava uscito dal laboratorio medico di Darth Vader.

supporta

David Gewirtz/ZDNET

Con un po’ di attenzione sono riuscito a rimuovere tutti i supporti e mi è rimasta la statuetta finale.

minimo

David Gewirtz/ZDNET

Fammi sapere. Pensi che assomigli all’immagine originale?

Molta intelligenza artificiale

Ricapitolando, l’intelligenza artificiale ha contribuito molto a questo progetto.

  • L’immagine originale è stata scattata da un drone che utilizza l’intelligenza artificiale per il posizionamento, l’aerodinamica e il tracciamento del soggetto.
  • Lo strumento immagine di ChatGPT è stato utilizzato per rimuovere lo sfondo, aggiungere gambe e piedi, rimuovere il microfono, l’orologio e il motivo della maglietta e aggiungere un nuovo emblem alla maglietta.
  • Lo strumento di conversione da immagine a 3D di Bambu Lab ha convertito la fotografia del mondo reale in un cartone animato 2D, quindi ha trasformato quel cartone animato 2D in un modello 3D funzionale.
  • L’affettatrice della stampante ha utilizzato trucchi algoritmici per posizionare automaticamente i supporti sul modello, mentre la stampante 3D stessa ha utilizzato una gamma di sensori basati sull’intelligenza artificiale per monitorare e gestire il flusso e la deposizione del filamento.

E io, umile come sono, ho fornito l’inconfondibile me-ness che ha fatto sembrare tutto bello.

Anche: Adoro Photoshop, ma gli strumenti gratuiti Affinity di Canva mi hanno conquistato (e mi hanno fatto risparmiare denaro)

E tu? Saresti disposto a provare a trasformare una tua foto in un modello 3D o in una stampa fisica? Quale parte di questo processo ti incuriosisce di più, la pulizia dell’immagine AI, la conversione da foto a modello o l’effettiva stampa 3D? Vedete usi pratici per strumenti come questo o è sufficiente il fattore divertimento? Se hai sperimentato flussi di lavoro simili basati sull’intelligenza artificiale o sulla stampa 3D, cosa ha funzionato bene e cosa ti ha sorpreso? Fatecelo sapere nei commenti qui sotto.


Puoi seguire gli aggiornamenti quotidiani sui miei progetti sui social media. Assicurati di iscriverti a la mia newsletter di aggiornamento settimanalee seguimi su Twitter/X all’indirizzo @DavidGewirtzsu Fb all’indirizzo Facebook.com/DavidGewirtzsu Instagram all’indirizzo Instagram.com/DavidGewirtzsu Bluesky a @DavidGewirtz.come su YouTube all’indirizzo YouTube.com/DavidGewirtzTV.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here