È soltanto un Pokémon con le armi o è un qualcosa di più? Vieni a parlarne su Award & Oscar!

 

online dal 19 ottobre 2003

 

Nuova Discussione
Rispondi
 
Stampa | Notifica email    
Autore

Il genio assoluto della fisica, il professor Hawking, lancia l' allarme sull'intelligenza artificiale: minaccia mortale

Ultimo Aggiornamento: 25/10/2023 19:56
03/12/2014 22:33
 
Email
 
Scheda Utente
 
Modifica
 
Cancella
 
Quota
Post: 1.457
Registrato il: 21/11/2007
Città: ROMA
Età: 43
Sesso: Maschile
Utente Veteran
OFFLINE

Non è tratto dal copione di “Matrix”, la celebre trilogia dei fratelli Wachowsky, né dal remake di “2001 Odissea nello Spazio” di Stanley Kubrick o di “Terminator”, ma l' opinione, e la previsione, è di uno dei più eminenti fisici teorici della Storia della Scienza tra il XX e il XXI secolo, Stephen Hawking, lo scopritore dei Buchi Neri. Nel corso di un programma scientifico andato in onda martedì sulla BBC, e che ha totalizzato quattro milioni di telespettatori, Hawking ha messo in guardia sui pericoli dell' intelligenza artificiale, con parole dirette e previsioni molto pessimistiche. Le sue posizioni hanno creato vasta eco nel mondo anglosassone, e lo sviluppo quasi immediato di un dibattito planetario nella comunità scientifica. "Lo sviluppo della piena intelligenza artificiale", ha sostenuto Hawking, "potrebbe portare alla fine della razza umana". L' affermazione così secca e decisa del fisico teorico veniva in replica ad una domanda dell' intervistatore della BBC sulle innovazioni tecnologiche dei macchinari che egli usa per comunicare, macchinari che possono essere interpretati come una sorta di intelligenza artificiale. "Le forme primitive di intelligenza artificiale", ha detto il fisico, "si sono già da tempo dimostrate utilissime, ma temo le conseguenze di aver creato qualcosa che può uguagliare o sorpassare gli esseri umani. Essa può decollare autonomamente e riprogrammarsi ad una velocità sempre più elevata". Insomma, Hawking sostiene questa argomentazione con le differenze evolutive tra tecnica e umanità. "Gli esseri umani - argomenta - che sono limitati da una lenta evoluzione biologica, non potrebbero più competere con le macchine intelligenti, e ne sarebbero sopraffatti". In realtà, nel corso della trasmissione, Hawking non è stato il solo pessimista sul futuro dell' intelligenza artificiale. Elon Musk, proprietario di un' azienda che produce macchine intelligenti e sofisticate, ha sostenuto la tesi di Hawking, preconizzando che "nel lungo periodo l' intelligenza artificiale sarà la nostra minaccia esistenziale più grande". Infine, il professor Hawking ha scherzato sulla qualità digitale della sua voce, uscita dalla macchina intelligente, che egli non esita a definire "pezzo della robotica avanzata": "E' diventata il mio marchio di fabbrica, e sinceramente non la cambierei mai con una voce naturale con accento British! Mi dicono che i bambini che hanno bisogno di una computer voice, ne vogliono una simile alla mia!". Sarà, ma l'analisi del professor Hawking sulle conseguenze della creazione di macchine pensanti più intelligenti della specie umana fa correre brividi gelati lungo la schiena...

3 dicembre 2014
www.ilnord.it/c3851_IL_GENIO_ASSOLUTO_DELLA_FISICA_IL_PROFESSOR_HAWKING_LANCIA_LALLARME_SULLINTELLIGENZA_ARTIFICIALE_MINACCIA...
03/07/2015 20:31
 
Email
 
Scheda Utente
 
Modifica
 
Cancella
 
Quota
Post: 1.784
Registrato il: 21/11/2007
Città: ROMA
Età: 43
Sesso: Maschile
Utente Veteran
OFFLINE
Volkswagen, morto operaio. Schiacciato da un robot mentre lavorava in fabbrica

Un giovane dipendente dello stabilimento della Volkswagen è stato schiacciato da un robot dell’impianto in cui stava lavorando contro un pannello di metallo ed è rimasto ucciso. Il fatto è avvenuto in Germania a Baunatal, comune del Land dell’Assia, a pochi km da Francoforte. E’ stata aperta dalla procura locale un’inchiesta per “appurare eventuali responsabilità” ha affermato Heiko Hillwig, un portavoce a Kassel, al giornale locale “Hessische Niedersächsische”. Sarebbe il primo caso di un lavoratore rimasto ucciso in una circostanza simile:“Non si ha memoria di incidenti mortali in circostanze analoghe”, precisa il portavoce. Dalla sede di Wolfsburg, l’azienda automobilistica fa sapere che con lo stesso robot aveva lavorato anche un altro dipendente, senza che nulla facesse emergere qualche problema del macchinario.

F. Q.
2 luglio 2015
www.ilfattoquotidiano.it/2015/07/02/volkswagen-morto-operaio-schiacciato-da-un-robot-mentre-lavorava-in-fabbrica/...
09/08/2017 02:21
 
Email
 
Scheda Utente
 
Modifica
 
Cancella
 
Quota
Post: 2.833
Registrato il: 21/11/2007
Città: ROMA
Età: 43
Sesso: Maschile
Utente Veteran
OFFLINE
Intelligenza artificiale, cosa può andare storto?

La notizia, che molti giornali e siti web hanno ripreso con un certo sensazionalismo e a volte una buona dose di approssimazione, è di quelle che sembrano arrivare dritte da un film di fantascienza. Nei laboratori di Facebook avrebbero interrotto un esperimento perché le intelligenze artificiali (AI) sarebbero andate “fuori controllo”. In realtà, le cose non sono così drammatiche, ma spingono comunque a qualche riflessione. Che cos’è successo nei laboratori di Facebook? In parole povere è successo che due bot hanno deciso che l’inglese fosse uno strumento di comunicazione poco efficace e hanno cominciato a “parlare” tra loro sviluppando un linguaggio che era incomprensibile per gli analisti che ne controllavano il funzionamento. Un comportamento del tutto naturale, viste le premesse (l’AI è pensata proprio per trovare sistemi più efficaci per risolvere i problemi), ma che ha comprensibilmente allarmato gli stessi ricercatori. Al di là del caso specifico, la notizia è indizio di una realtà che tendiamo a ignorare: lo sviluppo dell’intelligenza artificiale è molto più avanzato di quanto si possa generalmente pensare. Nel settore della sicurezza informatica, per esempio, il machine learning è considerato una delle chiavi per individuare le minacce ancora sconosciute e le società antivirus stanno investendo cifre importanti nello sviluppo di motori AI sempre più evoluti, non senza qualche dubbio. Qualche settimana fa mi è capitato di partecipare a un incontro a Helsinki con Mikko Hypponnen, uno dei più celebri esperti di sicurezza informatica. Affrontando il discorso dell’AI, Hypponnen si è lasciato andare a qualche considerazione forse un pò “filosofica” ma decisamente interessante. Per esempio: siamo consapevoli che creando una “vera” intelligenza artificiale l’uomo abdica al suo ruolo di essere il più intelligente sul pianeta Terra? Al di là delle facili ironie sulla reale intelligenza dell’essere umano (devastare l’ambiente in cui si vive è sintomo di intelligenza?) tutta la questione legata allo sviluppo dell’AI pone questioni decisamente spinose, a partire per esempio dal caso delle auto senza pilota (dalla Google Car alla Tesla), per le quali è nato un vero e proprio dibattito scientifico-etico. Il tema è: visto e considerato che le auto sono controllate da un computer e che questo non si può certo appellare a quell' “istinto del momento” che guida tutti noi quando siamo alla guida e ci troviamo ad affrontare una situazione di emergenza, come fissare le regole che dovranno seguire? Come faranno a decidere se sacrificare i passeggeri o i pedoni nel caso in cui si trovassero nella situazione di dover fare una scelta del genere? E ancora: è possibile che possano decidere chi sacrificare sulla base di altre considerazioni (per esempio sesso o età) quando devono scegliere chi eleggere a “vittima accidentale”? Qualcuno se ne sta già occupando tramite un sito internet gestito dal MIT, chiamato “Moral Machine” (http://moralmachine.mit.edu/). Il sito (piuttosto agghiacciante) conduce una sorta di sondaggio di massa tra le persone, per registrare le loro scelte in situazioni in cui l’intelligenza artificiale al controllo di un’auto senza conducente debba scegliere chi sacrificare. Meglio travolgere un gruppo di rapinatori o una famigliola? Meglio investire una ragazza e il suo cane o mandare i passeggeri a sbattere contro un muro? Il punto è che, alla luce della vicenda Facebook, l’idea che le scelte dell’intelligenza artificiale possano essere fossilizzate in un rigido decalogo si sgretola.

Il fulcro stesso del concetto di AI non è infatti che il computer si limiti a eseguire ordini in base a una serie di istruzioni statiche, ma che impari a elaborare la realtà in autonomia. Banalizzando, non si limita ad applicare regole fissate, ma si crea da solo le regole che consentono di raggiungere con la massima efficacia l’obiettivo. Rimaniamo all’esempio delle auto senza conducente e facciamo qualche speculazione, inserendo altri elementi come la possibilità di accedere in tempo reale ai Big Data e sfruttare funzioni come il riconoscimento facciale. È così assurdo che di fronte a una situazione come quelle descritte in precedenza l’AI proceda al riconoscimento dei pedoni per valutare quale sia meglio sacrificare? Magari andando a verificare la cartella clinica online per valutarne l’aspettativa di vita o il curriculum su Linkedin per giudicare quale sia il “peso sociale” della perdita della possibile vittima? C’è anche un’altra argomentazione che va considerata. Quando pensiamo ai possibili danni che l’intelligenza artificiale potrebbe procurare, abbiamo sempre in mente il classico schema dell’esperimento “sfuggito di mano”, un pò come accade con la rete di supercomputer Skynet nella saga di Terminator. Ma siamo certi che qualcuno non possa sviluppare un sistema di intelligenza artificiale con deliberati obiettivi dannosi? Qualche giorno fa mi è capitato di scrivere di un esperimento descritto nel corso del Def Con 2017 di Las Vegas, in cui un ricercatore ha dimostrato come sia possibile usare l’intelligenza artificiale per creare malware in grado di sfuggire al controllo della “intelligenza artificiale degli antivirus” (http://securityinfo.it/2017/07/31/lintelligenza-artificiale-malware-riescono-ad-aggirare-gli-antivirus/). Per realizzare l’esperimento, i ricercatori hanno usato una piattaforma chiamata OpenAI, promossa da un signore che si chiama Elon Musk e che (guarda un pò) è anche il fondatore di Tesla. Se all’equazione aggiungiamo il fatto che le tecnologie informatiche, rispetto ad altre tecnologie, non richiedono necessariamente l’uso di grandi mezzi per il loro sviluppo e tendono naturalmente a essere condivise in tempi brevissimi, viene da dire che qualche domanda forse è il caso di porsela. E visto che colossi come Amazon, Google, Facebook e Apple stanno facendo a gara a chi arriva primo alla creazione di un sistema AI davvero efficace, la più importante forse è: che cosa potrà mai andare storto nel creare una super intelligenza artificiale con accesso illimitato ai dati che stiamo accumulando da anni?

Marco Schiaffino
4 agosto 2017
www.ilfattoquotidiano.it/2017/08/04/intelligenza-artificiale-cosa-puo-andarestorto/...
04/02/2019 21:00
 
Email
 
Scheda Utente
 
Modifica
 
Cancella
 
Quota
Post: 3.477
Registrato il: 21/11/2007
Città: ROMA
Età: 43
Sesso: Maschile
Utente Master
OFFLINE
I robot diventeranno pericolosi per gli umani. Lo dicono gli scienziati

I ricercatori hanno scoperto che le reti neurali e l'apprendimento automatico hanno provocato uno sviluppo troppo rapido della robotica. Lo riporta oggi Express. Gli specialisti della compagnia britannica IHS Markit hanno scoperto che tra 50 anni l'apprendimento automatico e le reti neurali permetteranno ai robot di calcolare tutte le azioni quotidiane umane in un dato ambiente, che teoricamente potrebbe trasformare le macchine nella forma dominante. I ricercatori hanno notato che oltre all'automazione diffusa e alla perdita di un gran numero di posti di lavoro, l'umanità potrebbe affrontare un altro pericolo. Gli scienziati ritengono che l'intelligenza artificiale potrebbe rafforzarsi in misura tale che le azioni di controllo da parte degli umani possano essere percepite come comportamenti ostili. Ulteriori sviluppi, secondo gli scienziati, sono quasi impossibili da prevedere.

04.02.2019
it.sputniknews.com/mondo/201902047214533-robot-pericolo-esser...
[Modificato da wheaton80 04/02/2019 21:14]
02/05/2023 20:11
 
Email
 
Scheda Utente
 
Modifica
 
Cancella
 
Quota
Post: 5.071
Registrato il: 21/11/2007
Città: ROMA
Età: 43
Sesso: Maschile
Utente Master
OFFLINE
Intelligenza artificiale, il suo padrino Geoffrey Hinton lascia Google per "avvisare dei rischi di AI"



"Presto più intelligenti di noi"
ll lavoro pionieristico di Hinton sulle reti neurali ha modellato i sistemi di AI che alimentano molti dei prodotti odierni. "In questo momento, non sono più intelligenti di noi, per quanto ne so. Ma penso che presto potrebbero esserlo", ha spiegato Hinton.

"Dobbiamo preoccuparci"
Lo psicologo cognitivo e scienziato informatico britannico-canadese ha infatti dichiarato alla Bbc che il chatbot potrebbe presto superare il livello di informazioni di un cervello umano. "In questo momento, quello che stiamo vedendo è che cose come GPT-4 oscurano una persona nella quantità di conoscenza generale che ha e la oscura di gran lunga. In termini di ragionamento, non è così buono, ma fa già un semplice ragionamento. E dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparcene", ha spiegato.

Hinton non è pentito delle sue ricerche

Per un decennio Hinton ha lavorato per lo sviluppo dell'IA del gigante tecnologico di Google e pian piano ha iniziato a nutrire preoccupazioni per la tecnologia e il suo ruolo nel farla progredire. "Mi consolo con la solita scusa: se non l'avessi fatto io, l'avrebbe fatto qualcun altro", ha detto Hinton al New York Times.

02 maggio 2023
www.tgcom24.mediaset.it/mondo/intelligenza-artificiale-pericolosa-geoffrey-hinton-lascia-google_64213954-20230...
08/09/2023 17:23
 
Email
 
Scheda Utente
 
Modifica
 
Cancella
 
Quota
Post: 5.175
Registrato il: 21/11/2007
Città: ROMA
Età: 43
Sesso: Maschile
Utente Master
OFFLINE
Due taxi a guida autonoma bloccano un'ambulanza. Il paziente muore. E adesso?

Due taxi a guida autonoma hanno bloccato un’ambulanza mentre si dirigeva verso un ospedale, contribuendo potenzialmente alla morte del paziente, secondo un rapporto dei vigili del fuoco di San Francisco ottenuto da Forbes. L’incidente, che ha coinvolto due veicoli della società Cruise, è avvenuto il 14 agosto, appena quattro giorni dopo che le autorità di regolamentazione statali hanno approvato la disponibilità pubblica 24 ore su 24, 7 giorni su 7, di servizi di taxi autonomi in città. I soccorritori sono arrivati intorno alle 22:45 sulla scena di un incidente che ha coinvolto un pedone ferito gravemente, afferma il rapporto. Mentre erano lì, però, i taxi autonomi della Cruise hanno occupato due corsie di una strada a quattro corsie a senso unico, costringendo un veicolo della polizia in una corsia separata a spostarsi per fare spazio alla partenza dell’ambulanza. “Il [paziente] è stato preparato per il trasporto con ferite mortali, ma inizialmente non siamo riusciti a lasciare la scena perché i veicoli della Cruise non si muovevano”, si legge in una parte del rapporto ufficiale. “Questo ritardo, non importa quanto minimo, ha contribuito a un esito insoddisfacente [del paziente]… Il fatto che i veicoli autonomi Cruise continuino a bloccare l’ingresso e l’uscita dal punto critico dei servizi di emergenza sanitaria è inaccettabile”.

I rappresentanti della Cruise contestano il rapporto dei vigili del fuoco di San Francisco, sostenendo invece che i veicoli della flotta non hanno ostacolato in alcun modo le cure mediche. “L’ambulanza dietro il [veicolo autonomo] aveva un percorso libero per superare l’AV mentre altri veicoli, inclusa un’altra ambulanza, sono riusciti a superarlo”, ha detto a PopSci un portavoce di Cruise. “Non appena la vittima è stata caricata sull’ambulanza, l’ambulanza ha lasciato immediatamente la scena e l’AV non ha mai impedito di farlo”. Nel filmato fornito al NY Times, i servizi di emergenza sanitaria hanno manovrato attorno a un veicolo della società Cruise circa 90 secondi dopo aver caricato la vittima sull’ambulanza. I documenti pubblici ottenuti da Forbes descrivono in dettaglio oltre 70 casi dall’aprile 2022 di veicoli autonomi che presumibilmente ostacolano una serie di risposte di emergenza, inclusi incendi e ripristino dei servizi elettrici. Inoltre c’è un bel problema di responsabilità, anche penale: se un veicolo con guidatore ostacola un mezzo di soccorso l’autista è penalmente e civilmente responsabile del proprio comportamento e dei danni che viene a comportare. In questo caso chi risponde, soprattutto penalmente, per il comportamento ostruttivo dei mezzi a guida autonoma? Nonostante mesi di resistenze da parte di molti residenti e funzionari della città, il mese scorso le autorità di regolamentazione della California hanno approvato l’uso pubblico di servizi di taxi autonomi come Cruise e Waymo a San Francisco. Nel giro di pochi giorni dal via libera, tuttavia, i veicoli autonomi avrebbero superato i segnali di stop, prodotto lunghi ingorghi e sterzato incautamente per evitare i pedoni.

Fabio Lugano
06 settembre 2023
scenarieconomici.it/due-taxi-a-guida-autonoma-bloccano-unambulanza-il-paziente-muore-e...
23/10/2023 19:07
 
Email
 
Scheda Utente
 
Modifica
 
Cancella
 
Quota
Post: 5.210
Registrato il: 21/11/2007
Città: ROMA
Età: 43
Sesso: Maschile
Utente Master
OFFLINE
Il plagio “artificiale intelligente”

La mente umana non è, come ChatGPT e i suoi simili, una goffa macchina statistica per il riconoscimento di strutture, che ingurgita centinaia di terabyte di dati ed estrapola la risposta più plausibile per una conversazione o la più probabile per una domanda scientifica. Al contrario… la mente umana è un sistema sorprendentemente efficiente ed elegante che opera con una quantità limitata di informazioni. Essa non cerca di inferire correlazioni brute da dati ma cerca di creare spiegazioni. […] Smettiamo di presentarla come “Intelligenza Artificiale” e chiamiamola per quello che è: “software per il plagio”. Non crea alcunché, copia lavori esistenti da artisti esistenti e cambia a sufficienza per sfuggire alle leggi del copyright. È il più grande furto di proprietà mai avvenuto dopo le terre dei nativi americani da parte dei coloni europei.

Noam Chomsky (dal New York Times – 8 marzo 2023)
contropiano.org/news/scienza-news/2023/10/22/il-plagio-artificiale-intelligente...
25/10/2023 19:56
 
Email
 
Scheda Utente
 
Modifica
 
Cancella
 
Quota
Post: 5.212
Registrato il: 21/11/2007
Città: ROMA
Età: 43
Sesso: Maschile
Utente Master
OFFLINE
Auto a guida autonoma: stop a tutti i test in California per i troppi incidenti

Il Dipartimento della Motorizzazione della California ha sospeso l’implementazione dei veicoli a guida autonoma e ha cancellato tutti i permessi per i test di auto senza conducente della società Cruise, General Motors, in tutto lo Stato, citando problemi di sicurezza e incidenti.

www.npr.org/2023/10/24/1208287502/california-orders-cruise-driverless-cars-off-the-roads-because-of-safety-concern#:~:text=California%20has%20ordered%20the%20company,safety%20issues%20with%20the%20...

“Quando c’è un rischio irragionevole per la sicurezza pubblica, il DMV può immediatamente sospendere o revocare i permessi“, ha scritto il DMV della California in un comunicato stampa. La sospensione del DMV si basa su diversi fattori, tra cui "I veicoli del produttore non sono sicuri per il pubblico" e "Il produttore ha travisato qualsiasi informazione relativa alla sicurezza della tecnologia autonoma dei suoi veicoli". Inoltre, la decisione del DMV si basa sulla politica secondo cui “Qualsiasi atto o omissione del produttore o di uno dei suoi agenti, dipendenti, appaltatori o incaricati che il dipartimento ritiene renda la conduzione di test di veicoli autonomi su strade pubbliche da parte del produttore un rischio irragionevole al pubblico”. “Abbiamo appreso oggi alle 10:30 PT della sospensione dei nostri permessi senza conducente da parte del DMV della California“, ha detto alla CNBC la portavoce di Cruise Hannah Lindow, aggiungendo che tutti i veicoli robotaxi Cruise a San Francisco sono stati fermati. La settimana scorsa, la National Highway Traffic Safety Administration ha aperto un’indagine sugli infortuni ai pedoni causati dai veicoli della Cruise. L’indagine sui difetti di sicurezza riguarda 600 auto senza conducente gestite dall’azienda. Il Wall Street Journal ha osservato:“Un’agenzia californiana l’anno scorso ha anche esaminato una lettera anonima in cui si sosteneva che Cruise si stava preparando a lanciare prematuramente il suo servizio di robotaxi”.

www.zerohedge.com/markets/cali-dmv-forces-cruise-cut-robotaxi-fleet-half-after-several-concerning-i...

Ad agosto, il DMV della California ha costretto Cruise a ridurre della metà la sua flotta di robotaxi a causa di “incidenti” che circondavano i veicoli, come la collisione di un veicolo con un camion dei pompieri. Ci sono stati numerosi casi in cui il traffico di San Francisco è stato bloccato dai robotaxi. Una serie di incidenti simili è successa anche ad Austin, nel Texas, altra città dove questo tipo di servizio è stato testato, senza troppo successo.

Giuseppina Perlasca
25 ottobre 2023
scenarieconomici.it/auto-a-guida-autonoma-stop-a-tutti-i-test-in-california-per-i-troppi-in...
Amministra Discussione: | Chiudi | Sposta | Cancella | Modifica | Notifica email Pagina precedente | 1 | Pagina successiva
Nuova Discussione
Rispondi

Feed | Forum | Album | Utenti | Cerca | Login | Registrati | Amministra
Crea forum gratis, gestisci la tua comunità! Iscriviti a FreeForumZone
FreeForumZone [v.6.1] - Leggendo la pagina si accettano regolamento e privacy
Tutti gli orari sono GMT+01:00. Adesso sono le 21:23. Versione: Stampabile | Mobile
Copyright © 2000-2024 FFZ srl - www.freeforumzone.com

 

 

Statistiche nwo.it

 

Statistiche Forum