Contenitore news AI o IA

  • 152 Risposte
  • 5065 Visite

Offline warriors

    *
  • Extraterrestre
  • ******
  • Post: 9.271
  • Nibiruano/a 74
  • Prezzolato CenZore del forum
« Risposta #150 il: 25 Maggio 2024, 10:55:10 am »
Altro che Skynet piu' idiocracy 2.0


Colla sulla pizza, serpenti mammiferi e le altre allucinazioni dell'AI di Google Search

Lo sapevate che i serpenti sono mammiferi? E che se un gatto vi lecca la mano sta valutando se siete buoni da mangiare? E che se vi fate in casa la pizza e il formaggio non aderisce bene alla base potete semplicemente aggiungerci un po’ di colla - a patto che non sia tossica? No? Potete ringraziare la nuova intelligenza artificiale di Google integrata nel suo motore di ricerca per questa infusione di nuova saggezza!

Nel corso della conferenza I/O 2024, Google ha annunciato l’arrivo di AI Overviews, inizialmente solo negli Stati Uniti, come il primo passo dell’integrazione dell’intelligenza artificiale nel suo servizio in assoluto più diffuso e popolare, il motore di ricerca. E non ci è voluto davvero molto perché iniziassero le prime segnalazioni di “allucinazioni” come quelle che vi abbiamo riportato nel primo paragrafo.

Tra le altre ragguardevoli: Batman è un poliziotto, perché lavora con il Commissario Gordon; l’ex presidente USA James Madison si è laureato 21 volte; e un cane ha giocato professionalmente a basket (NBA), a hockey (NHL) e football (NFL). In alcuni casi, come quello della colla sulla pizza, si è addirittura riusciti a risalire alla fonte dell’informazione (o, meglio, della disinformazione): un commento pubblicato su Reddit 10 anni fa, scritto palesemente in modo ironico o comunque per ridere.

Non è certo la prima volta che salta fuori che l’intelligenza artificiale generativa prende delle cantonate colossali, o che si inventa informazioni di sana pianta spacciandole per vere. Perfino durante la dimostrazione di AI Overviews durante l’I/O il software ha restituito una risposta quantomeno discutibile - ha suggerito di aprire lo sportello del rullino per cercare di sistemare una fotocamera inceppata, senza quantomeno menzionare che è un’operazione che andrebbe fatta al buio completo, altrimenti le foto scattate verrebbero irrimediabilmente danneggiate.

Google stessa dice chiaramente che AI Overviews è un prodotto sperimentale (si potrebbe fare di meglio, però: l'indicazione arriva solo quando si espande il risultato, e non viene mai detto espressamente che l'informazione potrebbe essere falsa, imprecisa o fuorviante. Bisogna scavare più a fondo prima di imbattersi in un avviso che "la qualità delle risposte potrebbe variare"); ma al tempo stesso è comprensibile che questa “imprecisione”, se vogliamo chiamarla così, desti sempre più preoccupazione man mano che l’AI si diffonde e si integra in prodotti e servizi mainstream. E non c’è bisogno di tirare in ballo il fatto che la falla logica dell’AI sia il pretesto di base della maggior parte dei film apocalittici sull’argomento, stile Terminator.

Google Search ha raggiunto le dimensioni che ha raggiunto anche per la sua attendibilità, e non è necessariamente detto che applicare un’etichetta che dice sostanzialmente “occhio, potremmo sbagliarci” sia una sufficiente a preservarne la reputazione. Certo, lo stesso vale per ChatGPT e gli altri chatbot analoghi della concorrenza - anche Bard stesso, ma lì i paletti sono più chiari e immediati, perché si tratta di prodotti completamente nuovi interamente basati su una tecnologia sperimentale. È implicito che qualche problema possa saltare fuori, di tanto in tanto. Qui si parla del motore di ricerca più diffuso al mondo, uno strumento di cui le persone hanno imparato a fidarsi, nel corso degli anni.

Parlando con The Verge, un portavoce di Google osserva che le inesattezze emergono solo in caso di richieste molto insolite, e non rappresentano l’esperienza d’uso della maggior parte degli utenti; ma nel mondo vengono fatte 8,5 miliardi di ricerche su Google ogni giorno, quindi è logico assumere che anche “molto insolite” avvenga a livelli assoluti piuttosto spesso. E questi errori fanno notizia per via della definizione stessa di notizia.


Naturalmente sono in molti, Google e le società AI incluse, a essere ottimisti, e dicono che il progresso nel settore continuerà con lo stesso, vertiginoso ritmo che abbiamo osservato negli ultimi due anni. Ma l'esperienza ci insegna che, soprattutto nel mondo high-tech, molto spesso è una curva tutt'altro che lineare, e spesso il risultato che si immaginava non viene nemmeno "mai" raggiunto - almeno nel medio termine. Qualche esempio? Il 3D, le auto a guida autonoma, gli NFT, il grafene...

https://www.hdblog.it/google/articoli/n583889/google-search-ai-alluicnazioni-pizza-colla/



Offline warriors

    *
  • Extraterrestre
  • ******
  • Post: 9.271
  • Nibiruano/a 74
  • Prezzolato CenZore del forum
« Risposta #151 il: 05 Giugno 2024, 18:49:10 pm »
Anche le AI hanno i loro numeri preferiti

I risultati di un interessante esperimento basato sulla predizione di cifre estratte casualmente

Anche le AI hanno i loro numeri preferiti, proprio come gli umani. La scoperta arriva da un recente e interessante studio che si è concentrato sulla simulazione di una scelta totalmente randomica di numeri compresi tra 1 e 100 constatando come il comportamento delle intelligenze artificiali può per certi versi ricordare molto da vicino quello delle persone in carne ed ossa. Qualcosa di curioso, ma che in termini informatici non è così positivo.

Basta chiedere a una qualsiasi persona di scegliere un numero tra 1 e 10 e, statisticamente, risulterà molto difficile optare per l'1 e il 100 oppure per i primi dieci numeri o per multipli di 5 o ancora per numeri a doppia cifra identica (tipo 44 o 88). Le scelte più gettonate sono quelle considerabili come via di mezzo, quindi con il 7 e il 3. Ciò avviene per via del fatto che il cervello pensa di individuare numeri fuori dall'ordinario e quindi con più chance di uscire, quando in realtà sono tutti identici sul peso della scelta casuale. L'essere umano fatica a dare il giusto peso alla completa casualità, cercando sempre una qualche connessione razionale a ciò che invece è pura coincidenza. Questo avviene non soltanto nei numeri ma anche nei fatti della vita, quando spesso si cercano spiegazioni e si creano collegamenti dove non ci sarebbero oppure spiegazioni a posteriori su qualcosa di già successo. Un recente studio condotto da Gramener ha scoperto che anche i grandi modelli di linguaggio ragionano nello stesso modo umano.


L'esperimento ha chiesto ai modelli di scegliere un numero tra 1 e 100, si sono raccolte più prove e si è poi messo assieme tutti i risultati per cercare quali numeri venissero scelti più frequentemente. Uno dei modelli più celebri, GPT-3.5 Turbo di OpenAI ha scelto in modo particolare il numero 47, che si piazza quasi a metà del range di opzioni, mentre in seconda battuta c'è il 57, seguito dal 42, forse una citazione di Guida galattica per gli autostoppisti di Douglas Adams? Il 42 è il numero preferito anche del modello Claude 3 Haiku di Anthropic (assieme a 47 e 57), mentre Gemini 1.0 Pro di Google opta per il 72 (e 37 e 42). Sembra dunque che le AI seguano gli stessi ragionamenti irrazionali degli umani e non è un dato positivo, perché è la dimostrazione di come l'addestramento dei modelli abbia, di fatto, antropomorfizzato le AI, insegnando loro a dare peso a scelte che dovrebbero invece essere del tutto random e senza appigli con alcuna norma o regola che difatti non esiste.

https://www.wired.it/article/ai-numeri-preferiti/

Offline warriors

    *
  • Extraterrestre
  • ******
  • Post: 9.271
  • Nibiruano/a 74
  • Prezzolato CenZore del forum
« Risposta #152 il: 12 Giugno 2024, 11:41:05 am »
Musk e le sue idee chiare

Elon Musk ritira la denuncia contro OpenAI e Altman

Alla vigilia dell'esame di un giudice della California

Elon Musk ha ritirato la sua causa contro Open Ai nella quale il miliardario accusava la società e il suo fondatore Sam Atlman di non aver mantenuto la promessa di dare la priorità "agli esseri umani invece che ai profitti".

Il patron di Tesla ha rinunciato alla causa il giorno prima che un giudice della California esaminasse la richiesta di OpenAI di chiudere il caso.

https://www.ansa.it/canale_tecnologia/notizie/tecnologia/2024/06/12/elon-musk-ritira-la-denuncia-contro-openai-e-altman_d0c11855-15e1-409a-b8b8-7b1ab2bc46c7.html