Home Tecnologia Le più grandi storie di intelligenza artificiale dell’anno (finora)

Le più grandi storie di intelligenza artificiale dell’anno (finora)

23
0

Puoi tracciare un anno attraverso il lancio di prodotti oppure misurarlo nei momenti più importanti che cambiano il modo in cui guardiamo all’intelligenza artificiale. L’industria dell’intelligenza artificiale sforna costantemente notizie, come importanti acquisizioni, successi di sviluppatori indipendenti, protesta pubblica contro prodotti scadenti e trattative contrattuali esistenzialmente pericolose: c’è molto da districare, quindi diamo uno sguardo a dove siamo e dove siamo stati finora quest’anno.

Antropico contro il Pentagono

Un tempo companion commerciali, il CEO di Anthropic Dario Amodei e il Segretario alla Difesa Pete Hegseth hanno raggiunto un amaro stallo mentre rinegoziavano i contratti che stabiliscono come le forze armate statunitensi possono utilizzare gli strumenti di intelligenza artificiale di Anthropic a febbraio.

Anthropic ha stabilito una linea dura contro l’utilizzo della sua IA per la sorveglianza di massa degli americani o per alimentare armi autonome in grado di attaccare senza la supervisione umana. Nel frattempo, il Pentagono ha sostenuto che al Dipartimento della Difesa – che l’amministrazione del presidente Donald Trump chiama Dipartimento della Guerra – dovrebbe essere consentito l’accesso ai modelli di Anthropic per qualsiasi “uso legale”. I rappresentanti del governo si sono offesi all’concept che l’esercito dovesse limitarsi alle regole di un’azienda privata, ma Amodei ha mantenuto la sua posizione.

“Anthropic è consapevole che le decisioni militari sono prese dal Dipartimento della Guerra, e non da aziende personal. Non abbiamo mai sollevato obiezioni a particolari operazioni militari né tentato di limitare l’uso della nostra tecnologia in modo advert hoc”, ha scritto Amodei in una nota. dichiarazione affrontare la situazione. “Tuttavia, in un numero ristretto di casi, riteniamo che l’intelligenza artificiale possa minare, anziché difendere, i valori democratici”.

Il Pentagono ha dato advert Anthropic una scadenza per accettare il contratto. Centinaia di dipendenti di Google e OpenAI hanno firmato una lettera aperta invitando i rispettivi chief a rispettare i limiti di Amodei e a rifiutarsi di cedere sulle questioni relative alle armi autonome o alla sorveglianza domestica.

La scadenza è trascorsa senza che Anthropic accettasse le richieste del Pentagono. Trump ha ordinato alle agenzie federali di eliminare gradualmente l’uso di strumenti antropici nel corso di un transizione di sei mesi periodo e ha definito la società di intelligenza artificiale, valutata 380 miliardi di dollari, una “società sveglia e di sinistra radicale” in un submit sui social media in maiuscolo. Il Pentagono si è poi mosso per dichiarare Anthropic un “rischio nella catena di fornitura”, una designazione che di solito è riservata agli avversari stranieri e impedisce a qualsiasi azienda che lavora con Anthropic di fare affari con l’esercito americano. (Da allora Anthropic ha fatto causa per contestare la designazione.)

Il rivale antropico OpenAI è poi intervenuto e ha annunciato di aver raggiunto un accordo che consente di utilizzare i propri modelli in situazioni classificate. Da allora è stato uno shock per la comunità tecnologica i rapporti avevano indicato che OpenAI si atterrebbe alle linee rosse di Anthropic che regolano l’uso dell’intelligenza artificiale per i militari.

Evento Techcrunch

San Francisco, California
|
13-15 ottobre 2026

Il sentimento pubblico indicherebbe che le persone hanno trovato sospetta la mossa di OpenAI: le disinstallazioni di ChatGPT sono aumentate del 295% giorno dopo giorno il giorno dopo che OpenAI ha annunciato il suo accordo e Claude di Anthropic è balzato al numero 1 nell’app retailer. Caitlin Kalinowski, dirigente dell'{hardware} OpenAI, si è dimessa in risposta all’accordo, affermando che è stato “affrettato senza che i guardrail fossero definiti”.

OpenAI ha dichiarato a TechCrunch di ritenere che il suo accordo “chiarisca [its] linee rosse: nessuna arma autonoma e nessuna sorveglianza autonoma”.

Man mano che questa saga si svolgerà, avrà implicazioni significative per il futuro del modo in cui l’intelligenza artificiale verrà utilizzata in guerra, cambiando potenzialmente il corso della storia: sai, non è un grosso problema…

L’app “Vibe-coded” OpenClaw accelera il passaggio all’intelligenza artificiale degli agenti

Febbraio è stato il mese di OpenClaw e il suo impatto continua a farsi sentire. In rapida successione, l’app di assistente AI codificata da Vibe è diventata virale, ha generato un gruppo di società spin-off, ha sofferto di problemi di privateness e poi è stata acquisita da OpenAI. Anche una delle società basate su OpenClaw, un clone di Reddit per agenti IA chiamato Moltbook, è stata recentemente acquisita da Meta. Questo ecosistema a tema crostacei ha portato la Silicon Valley in una vera e propria frenesia.

Creato da Peter Steinberger, che da allora è entrato a far parte di OpenAI, OpenClaw è un wrapper per modelli di intelligenza artificiale come Claude, ChatGPT, Gemini di Google o Grok di xAI. Ciò che lo distingue è che consente alle persone di comunicare con gli agenti AI in linguaggio naturale tramite le app di chat più popolari, come iMessage, Discord, Slack o WhatsApp. Esiste anche un mercato pubblico in cui le persone possono codificare e caricare “competenze” da aggiungere ai propri agenti IA, rendendo possibile automatizzare praticamente tutto ciò che può essere fatto su un laptop.

Se sembra troppo bello per essere vero, è perché in un certo senso lo è. Affinché un agente AI possa essere efficace come assistente personale, deve avere accesso alla tua posta elettronica, ai numeri di carta di credito, ai messaggi di testo, ai file del laptop, ecc. Se dovesse essere violato, molte cose potrebbero andare storte e, sfortunatamente, non c’è modo di proteggere completamente questi agenti dagli attacchi prontamente iniettati.

“È semplicemente un agente seduto con un mucchio di credenziali su una scatola connessa a tutto: la tua posta elettronica, la tua piattaforma di messaggistica, tutto ciò che usi”, Ian AhlCTO di Permiso Safety, ha dichiarato a TechCrunch. “Quindi ciò significa che, quando ricevi un’e-mail, e forse qualcuno è in grado di inserire una piccola tecnica di iniezione tempestiva per intraprendere un’azione, [and] quell’agente seduto sulla tua scatola con accesso a tutto ciò a cui lo hai dato ora può intraprendere quell’azione.

Un ricercatore di sicurezza AI presso Meta ha affermato che OpenClaw ha impazzito nella sua casella di posta, cancellando tutte le sue e-mail nonostante le ripetute richieste di interruzione. “Ho dovuto CORRERE al mio Mac mini come se stessi disinnescando una bomba” per scollegare fisicamente il dispositivo, ha scritto in un post ormai virale su Xche includeva come ricevute le immagini delle richieste di interruzione ignorate.

Nonostante i rischi per la sicurezza, la tecnologia ha suscitato abbastanza interesse da parte di OpenAI da spingerla advert acquisirla.

Altri strumenti basati su OpenClaw, incluso Moltbook – un “social community” simile a Reddit in cui gli agenti IA possono comunicare tra loro – hanno finito per diventare più virali dello stesso OpenClaw.

In un caso, a il post è diventato virale in cui un agente AI sembrava incoraggiare i suoi colleghi agenti a sviluppare il proprio linguaggio segreto, crittografato end-to-end in cui potevano organizzarsi tra loro senza che gli umani lo sapessero.

Ma i ricercatori hanno presto rivelato che il Moltbook codificato in vibrazione non period molto sicuro, il che significa che period molto facile per gli utenti umani fingere di essere IA per pubblicare submit che avrebbero scatenato un’isteria sociale virale.

Ancora una volta, anche se la discussione su Moltbook period più fondata sul panico che sulla realtà, Meta ha visto qualcosa nell’app e ha annunciato che Moltbook e i suoi creatori, Matt Schlicht e Ben Parr, si sarebbero uniti a Meta Superintelligence Labs.

Sembra strano che Meta comprerebbe un social community in cui tutti gli utenti sono bot. Sebbene Meta non abbia rivelato molto sull’acquisizione, teorizziamo che possedere Moltbook significhi più ottenere l’accesso ai talenti dietro di esso, che sono entusiasti di sperimentare con gli ecosistemi degli agenti IA. Il CEO Mark Zuckerberg sì lo ha detto lui stesso: Pensa che un giorno ogni azienda avrà un’intelligenza artificiale aziendale.

Mentre osserviamo il trambusto attorno a OpenClaw, Moltbook e NanoClaw, sembra che coloro che hanno predetto un futuro di IA agente possano avere capito qualcosa, almeno per ora.

La carenza di chip, il dramma dell’{hardware} e le richieste dei information heart aumentano

Le dure richieste del settore dell’intelligenza artificiale, che richiede potenza di calcolo e information heart in volumi senza precedenti, stanno raggiungendo un punto in cui il consumatore medio non ha altra scelta che prestare attenzione. Ora, potrebbe non essere nemmeno possibile per l’industria soddisfare le richieste richieste astronomiche di chip di memoriae i consumatori stanno già vedendo aumentare i prezzi dei loro telefoni, laptop computer, automobili e altro {hardware}.

Finora, gli analisti di IDC e Counterpoint hanno previsto che le spedizioni di smartphone, advert esempio, quest’anno crolleranno del 12-13% circa; Apple ha già aumentato i prezzi dei MacBook Professional fino a 400 dollari.

Google, Amazon, Meta e Microsoft stanno pianificando di spendere fino a un totale 650 miliardi di dollari solo sui information heart quest’anno, con un aumento stimato del 60% rispetto allo scorso anno.

Se la carenza di chip non colpisce te nel tuo portafoglio, potrebbe colpire la tua comunità in generale. Solo negli Stati Uniti, quasi 3.000 nuovi data center sono in costruzione, che si aggiungono ai 4.000 già operativi nel Paese. La necessità che i lavoratori costruiscano questi information heart è abbastanza significativa “campi umani” sono sorti in Nevada e Texas, nel tentativo di attirare i lavoratori con la promessa di sale giochi con simulatori di golf e bistecche alla griglia su richiesta.

La costruzione di information heart non solo ha un impatto a lungo termine sull’ambiente, ma lo crea anche rischi per la salute per i residenti nelle vicinanze, inquinando l’aria e compromettendo la sicurezza delle fonti d’acqua vicine.

Nel frattempo, uno degli sviluppatori di {hardware} e chip più preziosi, Nvidia, sta rimodellando il suo rapporto con aziende chief nel campo dell’intelligenza artificiale come OpenAI e Anthropic. Nvidia è stata un sostenitore costante di queste società, suscitando preoccupazioni in tutto il mondo circolarità del settore dell’intelligenza artificiale e quante di queste valutazioni strabilianti si basano su accordi ricorrenti tra loro. L’anno scorso, advert esempio, Nvidia ha investito 100 miliardi di dollari in azioni OpenAI, e OpenAI ha poi dichiarato che avrebbe acquistato 100 miliardi di dollari di chip Nvidia.

È stato sorprendente, quindi, quando il CEO di Nvidia Jensen Huang ha affermato che la sua azienda avrebbe smesso di investire in OpenAI e Anthropic. Ha detto che ciò è dovuto al fatto che le società prevedono di quotarsi in borsa entro la effective dell’anno, anche se questa logica non ha del tutto senso, dal momento che gli investitori in genere incanalano più denaro prima dell’IPO per estrarre quanto più valore possibile.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here