Finestre.  Virus.  I Quaderni.  Internet.  ufficio.  Utilità.  Autisti

Intervista con il professor Igor Baskin, dottore in scienze fisiche e matematiche, ricercatore principale presso la Facoltà di fisica, Università statale di Mosca.

Qual è la difficoltà maggiore per reti neurali imparare a stabilire la relazione tra la struttura della materia e le sue proprietà fisiche e chimiche?

La più grande difficoltà e caratteristica fondamentale l'applicazione delle reti neurali, così come di qualsiasi altro metodo di machine learning, per ricercare relazioni tra struttura e proprietà delle sostanze chimiche sta nel fatto che in questo caso esse devono modellare la vera natura con la sua organizzazione estremamente complessa e talvolta sconosciuta, controllata da leggi ferree, ma non sempre applicabili nella pratica.

Questa è una differenza fondamentale rispetto alle attività standard risolte utilizzando le reti neurali, come il riconoscimento delle immagini. In effetti, il fatto che il numero 8 sia raffigurato come due cerchi contigui non è una conseguenza di alcuna legge di natura: è semplicemente oggetto di accordi tra le persone. Ma i romani un tempo decisero che era meglio per loro raffigurare lo stesso numero di VIII. Poiché tali accordi sono presi per comodità, la loro forma è scelta in modo tale che le reti neurali naturali nella testa di una persona li riconoscano molto facilmente a livello subconscio.

Pertanto, mi sembra che anche le reti neurali artificiali, che in una certa misura imitano alcuni aspetti dell'elaborazione delle informazioni nella testa umana, possano farcela facilmente.

Ora passiamo ai prodotti chimici. Il fatto che l'aspirina abbia un effetto antinfiammatorio è dovuto alla capacità delle sue molecole di acido acetilsalicilico costituente di inibire l'enzima cicloossigenasi a causa della complementarità delle forme spaziali delle molecole del farmaco e dell'enzima e al favorevole equilibrio di molte forze che agiscono nel sistema.

Il compito di prevedere le proprietà delle sostanze chimiche in base alla loro struttura, a differenza, ad esempio, del compito di riconoscimento delle immagini, non è mai stato riscontrato prima nel processo di evoluzione, e quindi le reti neurali naturali nel nostro cervello non possono risolverlo a livello subconscio con la stessa facilità.

In effetti, qualsiasi bambino (e persino alcuni animali) può facilmente distinguere un gatto da un cane nella foto, ma è improbabile che anche una dozzina di premi Nobel, guardando la formula di un composto chimico, indovinino subito set completo le sue proprietà.

Questo è un compito di un altro livello di complessità. Nella sua soluzione, un grosso problema è anche quello che di solito non viene percepito come qualcosa di complicato, ad esempio come presentare l'oggetto analizzato alla rete neurale. Nell'elaborazione delle immagini, ad esempio, la rappresentazione naturale è un insieme di intensità di pixel.

Ma il modo migliore per rappresentare la struttura della materia per una rete neurale è già un compito dai compiti, e non ne ha soluzioni semplici. I cosiddetti sistemi utilizzati per risolverlo. descrittori molecolari, ad es. speciali procedure computazionali che consentono di descrivere la struttura di una sostanza utilizzando un insieme di numeri presentano molti svantaggi. La chemioinformatica, una scienza che si è sviluppata molto intensamente negli ultimi anni, si occupa di come rappresentare ed elaborare al meglio le informazioni sulle sostanze chimiche.

Senza fare affidamento sulle conoscenze scientifiche accumulate in chemioinformatica, qualsiasi tentativo di utilizzare le reti neurali per stabilire una connessione tra la struttura di una sostanza e le sue proprietà si trasforma in un puro gioco con i numeri e non porta a risultati praticamente importanti. Questa è probabilmente la principale difficoltà nell'utilizzo delle reti neurali per questo scopo.

Quali sono le 10 principali sfide per l'intelligenza artificiale nella chimica sintetica?

1. Come sintetizzare un dato composto chimico dai reagenti disponibili?
2. Come sintetizzare un composto chimico con una data attività?
3. Come sarà una libreria combinatoria di composti chimici orientata a un dato tipo di attività biologica e come sintetizzarla?
4. Cosa succede come risultato della reazione se mescoli i composti chimici dati nelle condizioni date?
5. In quali condizioni dovrebbe essere eseguita una determinata reazione? Come ottimizzare tali condizioni (temperatura, solvente, catalizzatore, additivi)?
6. Qual è il meccanismo probabile per una data reazione?
7. Come aumentare la resa di una data reazione?
8. Elenca le possibili reazioni chimiche
9. Valutazione della disponibilità sintetica (facilità di sintesi) di un dato composto.
10. Prevedere le caratteristiche cinetiche e termodinamiche di reazioni semplici e la resa di reazioni complesse.

Qual è il compito di calcolare tutte le possibili reazioni chimiche?

Forse questa è una combinazione dei due compiti precedenti: (8) enumerare possibili reazioni chimiche e (10) prevedere le loro caratteristiche cinetiche e termodinamiche e la resa.

Qual è il modo migliore in chemioinformatica per comprendere la struttura della materia? Qualche matrice multidimensionale? Quanto bene descrivono l'intera struttura? Ci sono lacune da colmare?

Non esiste una risposta semplice e univoca a questa domanda. Tutto dipende da quali tipi di sostanze in questione, nonché in quali condizioni e in quali stati di aggregazione sono considerati. Inoltre, la scelta di un tipo specifico di rappresentazione dipende dallo scopo per cui viene effettuata: per l'identificazione univoca di una sostanza, l'archiviazione in un database, per la costruzione di eventuali modelli, per il trasferimento di informazioni tra programmi.

In chemioinformatica, di norma, vengono utilizzate rappresentazioni diverse per tutti questi scopi. Il caso più semplice sono gli idrocarburi saturi: composti organici costituiti solo da atomi di carbonio e idrogeno e che non contengono legami multipli. Per rappresentarli, è conveniente utilizzare grafici in cui i vertici corrispondono agli atomi di carbonio e i bordi corrispondono ai legami tra di loro. È interessante notare che è stato il compito di spiegare la presenza di vari isomeri nei composti organici a servire da incentivo per la creazione e lo sviluppo delle basi della teoria dei grafi, e il compito di elencare gli isomeri è servito da stimolo per la teoria combinatoria dei gruppi. Entrambi questi rami della matematica discreta in seguito trovarono molto ampia applicazione in quasi tutte le aree del sapere scientifico.

Il livello successivo di complicazione sono i composti organici arbitrari a basso peso molecolare. Queste sono, ad esempio, le molecole della maggior parte dei farmaci, nonché i reagenti iniziali e gli intermedi per la loro sintesi. Per identificarli, è anche conveniente usare i grafici, ma questa volta con vertici e spigoli etichettati. In questo caso, le etichette dei vertici sono le designazioni degli elementi chimici e le etichette dei bordi sono gli ordini di legame.

Per la rappresentazione interna delle molecole in memoria ad accesso casuale computer, in questo caso è possibile utilizzare matrici di connettività a grafo, ma in realtà vengono utilizzate più spesso strutture dati complesse, incluse tabelle di atomi e legami.

Per organizzare in modo efficace la ricerca delle strutture nei database e confrontarle tra loro, tra le rappresentazioni più diffuse sono delle speciali stringhe di bit, chiamate “impronte digitali molecolari” (impronte digitali).

Per costruire modelli che collegano le strutture dei composti con le loro proprietà, vengono utilizzati vettori di caratteristiche come rappresentazioni, che in chemioinformatica vengono chiamati "descrittori molecolari". C'è una grande varietà (migliaia!) vari tipi descrittori molecolari.

Per lo scambio di informazioni tra programmi e per la rappresentazione "esterna" di strutture chimiche, le stringhe di testo denominate SMILES sono attualmente le più diffuse. Il compito di rappresentare i composti organici è complicato da fenomeni puramente chimici come la dissociazione elettrolitica, il mesomerismo e il tautomerismo, a seguito dei quali una sostanza organica può essere descritta da un intero insieme di grafici diversi e, quindi, può avere diverse rappresentazioni, da cui viene solitamente scelta la rappresentazione "canonica" a scopo di identificazione.

Il compito diventa ancora più complicato se è necessario tenere conto dell'isomerismo geometrico e spaziale (stereoisomerismo), che non è sempre possibile a livello di grafo e spesso richiede elementi di una rappresentazione ipergrafica. Inoltre, ai fini della modellazione, è necessario tener conto della presenza di molte forme spaziali in molecole flessibili - conformeri. Tutte queste circostanze devono essere prese in considerazione quando si scelgono rappresentazioni di sostanze chimiche per l'apprendimento automatico.

Ai successivi livelli di complessità, ad esempio, quando si passa ai complessi supramolecolari, ai polimeri sintetici, ai materiali solidi, il problema di trovare la rappresentazione più adeguata per la struttura di una sostanza diventa ancora più difficile, e finora non è stata proposta una soluzione soddisfacente.

Gli approcci esistenti nell'informatica dei polimeri e dei cristalli sono principalmente focalizzati sulla modellazione, e quindi per i casi più semplici, e non sono ancora stati fatti tentativi di creare informatica per la chimica supramolecolare. Quindi qui non si dovrebbe parlare di lacune, ma di piccoli territori esplorati all'interno di una grande terra incognito.

Per coloro che sono interessati ai metodi di rappresentazione delle sostanze chimiche su un computer, consiglierei la nostra monografia: T.I.Madzhidov, I.I.Baskin, I.S.Antipin, A.A. Warnek, Introduzione alla Chemioinformatica. Rappresentazione al computer delle strutture chimiche”. Kazan: Kazan. unt, 2013, ISBN 978-5-00019-131-6.

Quali importanti progressi nella chimica sintetica si sono verificati quest'anno?

La chimica organica sintetica ha quasi 200 anni e il picco principale del suo sviluppo come scienza fondamentale è caduto nella seconda metà del secolo scorso, quando sono state formulate le sue leggi di base ed è stata mostrata la reale possibilità di sintetizzare sostanze di qualsiasi livello di complessità.

Ora sempre più persone parlano di chimica sintetica come disciplina applicata già consolidata, il cui compito principale è trovare modi migliori ottenere sostanze con le proprietà desiderate. Di conseguenza, è stato a lungo suddiviso in molte aree (ad esempio, chimica farmaceutica, petrolchimica, catalisi, chimica di vari tipi di materiali), in ciascuna delle quali vi è un continuo sviluppo progressivo.

Per me sono di grande interesse i lavori degli ultimi anni nel campo della robotica, una nuova disciplina scientifica e applicata volta ad automatizzare il processo di sintesi di sostanze con l'ausilio di speciali robot controllati da computer.

Vorrei in particolare notare i risultati degli ultimi anni nella creazione di reattori chimici in miniatura integrati in chip di computer, che consentono di effettuare la sintesi, l'isolamento, l'analisi e persino i test biologici delle sostanze sintetizzate letteralmente all'interno di un computer controllato dall'intelligenza artificiale.

Quali sono i progressi dell'apprendimento automatico nella chimica sintetica? Dove ci troviamo?

Inizierò spiegando il contesto storico. Da quando negli anni '50 è stato coniato il termine “intelligenza artificiale”, la chimica (e la chimica organica sintetica in particolare) è stata considerata, insieme alla diagnostica medica, come uno dei principali ambiti della sua futura applicazione. La maggior parte degli altri compiti sono stati fissati molto più tardi.

Nella prima fase del suo sviluppo, l'enfasi principale era sull'uso del cosiddetto. sistemi esperti basati su regole immagazzinate in basi di conoscenza, formulate da chimici esperti, e un meccanismo di inferenza.

Il primo sistema esperto di successo nel campo della chimica sintetica è stato il programma LHASA sviluppato sotto la guida del premio Nobel per la chimica Elias Corey all'inizio degli anni '70 del secolo scorso. Si può sostenere che LHASA ha fatto una rivoluzione a suo tempo sia nel campo della chimica organica sintetica che dell'intelligenza artificiale, e ha determinato le direzioni principali per lo sviluppo della chimica sintetica del computer per molti anni a venire. È successo così che è stata la chimica sintetica a diventare l'area in cui, negli anni '80, le capacità dell'intelligenza artificiale si sono avvicinate molto e hanno quasi eguagliato le capacità dei chimici sintetici esperti. Ciò ha determinato la popolarità della chimica sintetica tra gli specialisti dell'intelligenza artificiale negli anni '70 e '80.

Tuttavia, nonostante i grandi successi ottenuti dall'intelligenza artificiale nel campo della chimica sintetica, negli anni '90 la popolarità di questa direzione è diminuita drasticamente ed è addirittura praticamente pari a zero.

È successa una cosa paradossale, di cui si discute ancora tra gli specialisti. Sebbene la capacità di un computer di pianificare la sintesi si sia avvicinata all'abilità dei chimici sintetici, questi ultimi sono ancora necessari per eseguire la sintesi e nessun computer può sostituirli in questo. Di conseguenza, un programma per computer è stato percepito come un "giocattolo" costoso di cui si può fare a meno e per il quale non vale la pena spendere soldi. Questo ha coinciso proprio con l'inizio dell'"inverno" nel campo dell'intelligenza artificiale, quando sono diventate evidenti le carenze fondamentali dei sistemi esperti basati su regole: solo una piccola parte della conoscenza può essere rappresentata e formulata dagli esperti sotto forma di regole chiare, e quindi la loro mole, percepita dagli esperti solo a livello di intuizione, risulta essere inutilizzata nell'ambito dei sistemi esperti.

Approssimativamente questo ha portato al crollo del programma per computer giapponese di quinta generazione, un tempo ambizioso.

I primi lavori sull'uso dell'apprendimento automatico nella pianificazione della sintesi sono apparsi alla fine degli anni '80 e all'inizio degli anni '90 come tentativi di superare la suddetta lacuna dei sistemi esperti basati su regole insegnando al computer stesso (senza l'aiuto di esperti umani) a estrarre conoscenza sulla reattività dei composti chimici dai database allora emergenti contenenti informazioni sulle reazioni chimiche pubblicate in letteratura.

In un primo momento, questa conoscenza ha assunto la forma di regole destinate a ricostituire le basi di conoscenza incluse nei sistemi esperti esistenti, quindi si è iniziato a estrarre regole "fuzzy", imitando l'intuizione di un chimico sintetico, per le quali le reti neurali hanno iniziato a essere utilizzate all'inizio degli anni '90. Va detto che attualmente il compito di estrarre automaticamente la conoscenza sulla reattività dai database di reazioni pubblicate per il successivo utilizzo nell'ambito di una nuova generazione di sistemi esperti è la direzione centrale nell'applicazione dell'apprendimento automatico nella chimica sintetica.

Un'altra direzione importante ora è anche l'uso dell'apprendimento automatico per stabilire una connessione tra la struttura di una sostanza e le sue proprietà, che consente la sintesi di quelle sostanze che, secondo i modelli costruiti, dovrebbero essere caratterizzate dall'insieme di proprietà desiderato.

I primi esempi di estrazione automatica dei dati utilizzavano database di decine di reazioni, poi sono proseguite migliaia, decine di migliaia, e ora si lavora già con milioni e decine di milioni di reazioni, che già coprono tutte le reazioni effettuate a livello mondiale nei 200 anni di esistenza della chimica di sintesi. C'è stato un passaggio dalla quantità alla qualità e il mondo è entrato nell'era dei "big data" (big data). Dall'inizio degli anni '90, la potenza dei computer è aumentata di diversi ordini di grandezza, soprattutto con l'avvento di schede grafiche GPU.

Negli ultimi anni si è resa disponibile anche la metodologia del “deep learning” (deep learning), che consente di estrarre conoscenze basate su schemi molto complessi da una grande quantità di dati. Tutto ciò ha portato negli ultimi anni ad un'esplosione di interesse per l'utilizzo dell'artificiale nella chimica di sintesi. Negli ultimi due anni sono stati pubblicati articoli più importanti e interessanti che nei precedenti 20 anni messi insieme. Così "l'inverno" finì e subito senza "primavera" fu sostituito da una "calda estate". Allo stato attuale, a causa dell'enorme quantità di conoscenza accumulata, diventa molto difficile per una persona, anche un chimico sintetico molto esperto, competere con l'intelligenza artificiale nella pianificazione della sintesi.

Per coloro che vogliono comprendere questo problema in modo più dettagliato, consiglierei la nostra monografia appena pubblicata: II Baskin, TI Majidov, AA Varnek “Introduzione alla chemoinformatica. Parte 5. Informatica delle reazioni chimiche. Kazan: Kazan. unt, 2017, ISBN 978-5-00019-907-7.

Quanto siamo vicini a elencare le possibili reazioni chimiche? La scienza conosce circa 90 milioni di reazioni? Qual è l'ordine dell'ignoto?

Puoi solo elencare qualcosa di discreto e chiaramente diverso l'uno dall'altro, ad esempio composti organici a basso peso molecolare, che sono descritti da grafici diversi. Nel caso delle reazioni, la stessa formulazione del problema dell'enumerazione è molto poco ovvia. Ad esempio, le reazioni di idrolisi dell'acetato di etile e dell'acetato di metile sono reazioni diverse o sono due esempi della stessa reazione?

L'idrolisi dell'acetato di etile in mezzi alcalini e acidi ha reazioni diverse o la stessa reazione avviene in condizioni diverse? Pertanto, l'enumerazione delle reazioni stesse ha senso solo nell'ambito di uno specifico schema di classificazione delle reazioni che determina ciò che è considerato una reazione e ciò che è diverso.

Ci sono molti schemi diversi classificazione delle reazioni organiche e tutte hanno un multilivello struttura gerarchica. Al livello più basso (dettagliato), dove le reazioni di formazione di diversi composti sono considerate reazioni diverse, il numero di reazioni non può essere inferiore al numero di composti chimici, e i composti a basso peso molecolare, anche secondo le stime più prudenti, sono 10 alla potenza di 60, cioè significativamente più delle particelle elementari nell'intero Universo. Al livello più alto (astratto), potrebbero essercene pochissimi. Ad esempio, i passaggi più elementari nelle reazioni organiche sono descritti solo da alcuni schemi generali ridistribuzione dei link. Tutto dipende da cosa intendiamo per enumerazione delle reazioni.

Descrivi il compito in modo più dettagliato: "Che aspetto avrà e come sintetizzare una libreria combinatoria di composti chimici orientata a un determinato tipo di attività biologica?"

Diciamo che è noto che alcuni composti di una certa classe (ad esempio pirazoli sostituiti) esibiscono il tipo desiderato di attività biologica. La sfida è sintetizzare altri rappresentanti della stessa classe in un unico passaggio ad alta resa combinando vari precursori (reagenti iniziali per la sintesi) da un catalogo di sostanze disponibili in commercio.

L'insieme (libreria) di composti chimici sintetizzati in questo modo può essere sottoposto a test biologici, che potrebbero rivelare composti con un insieme migliorato di proprietà. Questo è un problema molto reale che spesso si presenta nello sviluppo di nuovi farmaci nella fase di "ottimizzazione delle proprietà del leader" (ottimizzazione del lead).

In questo caso, il programma per computer dovrebbe offrire un metodo per sintetizzare composti della classe selezionata in una fase da più precursori, trovare precursori adatti a questo nel catalogo e per ogni combinazione valutare la possibilità di una reazione di sintesi con un alto rendimento. Ad esempio, uno dei moduli del sistema informatico WODCA (W.-D. Ihlenfeldt, J. Gasteiger, Angew. Chem., Int. Ed. Engl., 1995, 40, 993-1007) è focalizzato sulla soluzione di tali problemi.

Quali gruppi scientifici nel mondo sono leader nell'uso dell'intelligenza artificiale nella chimica sintetica? Quali sono i loro successi?

Ci sono già molti di questi gruppi. Elencherò selettivamente diversi gruppi che stanno attualmente lavorando attivamente in questa direzione.

1. J. Gasteiger (Erlangen, Germania) - uno dei "padri" della chemioinformatica, che ha dato un enorme contributo alla formazione della chemioinformatica come scienza, pioniere nell'uso delle reti neurali in chimica. Sotto la sua guida, diversi sistemi informatici pianificazione della sintesi organica: EROS, WODCA. In termini di utilizzo dell'intelligenza artificiale nella chimica sintetica, di particolare interesse è il suo lavoro sull'utilizzo delle reti neurali auto-organizzanti di Kohonen per mappare le reazioni chimiche ed estrarre conoscenze sulla reattività dei composti organici.

2. G. Schneider (Zurigo, Svizzera). Dal punto di vista dell'uso dell'intelligenza artificiale nella chimica di sintesi, di grande interesse è l'approccio implementato nel programma DOGS, che consente a un dato composto biologicamente attivo di trovare le strutture dei suoi analoghi insieme ai loro percorsi di sintesi utilizzando un insieme di reazioni organiche facilmente implementabili e un catalogo di reagenti disponibili per la sintesi. Di particolare interesse è anche la piattaforma ALOE sviluppata nel suo gruppo, progettata per l'ottimizzazione automatica del composto leader (nello sviluppo di farmaci) utilizzando la tecnologia di sintesi del microflusso utilizzando chip sotto controllo strumenti software basato su metodi di apprendimento automatico.

3. K. Funatsu (Tokyo, Giappone). Sotto la sua guida è stato sviluppato un sistema esperto per la pianificazione della sintesi organica KOSP, basato su regole recuperate automaticamente da un database di reazioni. Il sistema SOPHIA per la previsione dei prodotti delle reazioni chimiche si basa sulle stesse regole.

4. B. A. Grzybowski, Evanston (Illinois, USA e Varsavia, Polonia). Il prodotto principale è Chematica. È un pianificatore e ottimizzatore di sintesi basato sulla "rete di chimica organica", che è un "grafo di conoscenza" che include 10 milioni di composti chimici come vertici e 10 milioni di reazioni che li collegano.

5. P. Baldi (Irvine (California), USA). Sviluppi interessanti: Reaction Explorer (sistema esperto basato su regole per prevedere i prodotti di reazioni chimiche organiche) e Reaction Predictor (sistema di rete neurale progettato per prevedere i prodotti di reazione in base ai loro meccanismi)

6. W. Green e K. Jensen (W. H. Green, K. F. Jensen, Cambridge (Massachusetts), USA) È stato sviluppato un sistema universale per la previsione dei prodotti di reazione di composti organici, combinando l'uso delle regole di reazione con la modellazione della rete neurale utilizzando il deep learning.

7. M. Waller (Munster, Germania e Shanghai, Cina) Sulla base dell'approccio "neurosimbolico", è stato sviluppato un sistema universale per la pianificazione della sintesi organica e la previsione dei prodotti di reazione di composti organici, combinando l'uso di regole di reazione estratte automaticamente con la modellazione della rete neurale utilizzando il deep learning.

8. A. Varnek (Strasburgo, Francia) Uno dei gruppi più attivi nel campo della chemioinformatica. È stato sviluppato il concetto di "grafico di reazione condensato", che ha reso possibile la ricerca per somiglianza nei database di reazione, applicare algoritmi di apprendimento automatico ai dati di reazione, prevedere condizioni di sintesi ottimali e costruire mappe dello spazio chimico delle reazioni.

9. TM Majidov (Kazan, Federazione Russa) Attualmente è l'unico in Federazione Russa un gruppo di lavoro attivo che svolge attività di ricerca nel campo dell'informatica delle reazioni sintetiche in chimica organica. All'interno del suo quadro è stata effettuata la previsione delle caratteristiche cinetiche e termodinamiche delle reazioni chimiche, è stato creato un sistema esperto per la protezione dei gruppi nella sintesi organica e sono stati mappati gli spazi delle reazioni chimiche. La maggior parte del lavoro è svolto in stretta collaborazione con il Laboratorio di Chemioinformatica dell'Università di Strasburgo (A. Warnek).

Nell'ultimo decennio, i progressi compiuti nel campo della previsione delle strutture cristalline delle sostanze sono stati attivamente discussi, una direzione che per molto tempo era considerato quasi senza speranza. Utilizzando l'algoritmo evolutivo USPEX Oganov-Glass, è stato possibile scoprire molti nuovi composti chimici stabili che erano stati precedentemente trascurati dai chimici. Cosa ne pensi - quali sono le prospettive per un approccio evolutivo nel campo della sintesi di molecole organiche complesse? Secondo lei, dobbiamo aspettarci un successo in questa direzione nei prossimi dieci anni?

L'approccio evolutivo (principalmente l'algoritmo genetico) è stato utilizzato attivamente in chemioinformatica per più di 25 anni ed è considerato metodo tradizionale ottimizzazione stocastica. La maggior parte degli algoritmi noti per l'aggancio molecolare si basa su di esso: il processo di "aggancio" di una molecola di un composto organico (ad esempio un potenziale farmaco) nella cavità di un "bersaglio biologico" (di solito una proteina).

L'algoritmo genetico è anche molto spesso utilizzato per selezionare i descrittori e trovare i valori ottimali per i parametri dei metodi di apprendimento automatico durante la costruzione di modelli per la previsione delle proprietà delle sostanze chimiche. Usiamo spesso anche l'algoritmo genetico quando costruiamo mappe di spazi di composti chimici e reazioni.

Ma l'algoritmo genetico di solito non viene utilizzato per risolvere direttamente il problema della pianificazione della sintesi. Apparentemente, varie modifiche del metodo Monte Carlo sono più efficienti per questo problema. Per quanto riguarda i prossimi dieci anni, mi aspetto l'emergere di metodi computazionalmente più efficienti di ottimizzazione stocastica.

Anche negli ultimi anni, nel campo dell'apprendimento automatico, c'è stata una notevole tendenza allo sviluppo di tecniche di apprendimento non supervisionato - una direzione molto interessante dovuta al fatto che il costo dell'etichettatura degli array con la partecipazione delle persone rimane approssimativamente costante e la potenza di calcolo è in costante crescita e diventa più economica. L'emergere di autoencoder ha aperto la strada all'emergere di tecniche di incorporamento, il lavoro di Joshua Benyo e Thomas Mikolov ha rivoluzionato l'elaborazione del linguaggio naturale da parte delle reti neurali creando spazi vettoriali semantici (word2vec, tecnologie GloVe, ecc.). L'applicazione di questo approccio sembra essere molto promettente e nel campo della bioinformatica - sequenze nucleotidiche del DNA, epigenomi, trascrittomi - ricordano molto i testi nella loro struttura. Ci sono progressi nell'applicazione di queste tecnologie in bioinformatica? Riponete loro speranze di progressi significativi nel campo dell'analisi dei dati biologici?

Non dirò nulla sulla bioinformatica, poiché lavoro nel campo della chemioinformatica, e questa non è la stessa cosa. Per quanto riguarda l'uso di algoritmi di elaborazione del testo che utilizzano reti neurali ricorrenti di tipo LSTM, che portano alla creazione di spazi vettoriali semantici, sono utilizzati molto intensamente in chemioinformatica. Inoltre, sono ancora più adatti alla chemioinformatica che alla bioinformatica.

Il fatto è che anche la struttura chimica è facile da scrivere come stringa: a tale scopo viene utilizzata la codifica SMILES. In questo caso, lo spazio latente risultante è molto adatto per rappresentare campioni di composti chimici da utilizzare nei modelli struttura-proprietà degli edifici. Inoltre, quando le reti neurali ricorrenti così addestrate vengono lanciate nella modalità di generazione, si formano le strutture di nuovi composti chimici. Ciò consente, ad esempio, di risolvere il problema della progettazione di molecole di nuovi farmaci.

Per quanto riguarda gli autoencoder, nel 2011 li abbiamo sviluppati e pubblicati sulla base nuovo metodo implementazione dello screening virtuale di librerie (database) di composti chimici al fine di ricercare molecole promettenti per lo sviluppo di nuovi farmaci.

Per quanto riguarda i metodi di apprendimento senza supervisione, sono stati intensamente utilizzati in chemioinformatica da oltre 30 anni. Negli anni '80 e all'inizio degli anni '90, il metodo più popolare era il classico (sviluppato negli anni '30 del secolo scorso!) Linear Principal Component Method (PCA!), Dalla metà degli anni '90 alla fine degli anni 2000, le reti neurali auto-organizzanti di Kohonen sono state il leader indiscusso della popolarità nel campo della chemioinformatica, mentre negli ultimi anni l'analogo probabilistico costruito sulla base dell'apprendimento bayesiano è diventato sempre più popolare nella chemioinformatica. reti onen - mappatura topografica generativa (GTM - Generative Topographic Mapping). Le varianti di quest'ultimo metodo sono molto adatte per lavorare con grandi database di oggetti chimici, comprese le reazioni di sintesi organica. Da altri metodi di insegnamento senza supervisione da risolvere compiti diversi nel campo della chemioinformatica, utilizziamo anche una variante a una classe della support vector machine (1-SVM), nonché una classe speciale di reti neurali "basate sull'energia" con connessioni simmetriche, come le reti Hopfield e la Restricted Boltzmann Machine (RBM).

Qual è il futuro dell'utilizzo dell'IA nella chimica sintetica? Quanto velocemente l'IA toglierà lavoro ai chimici?

Vedo in futuro diverse direzioni per l'uso dell'IA nella chimica sintetica, che sono già parzialmente implementate al momento. Ad esempio, i metodi di intelligenza artificiale per l'elaborazione del testo e il riconoscimento delle immagini vengono già utilizzati attivamente per estrarre informazioni dalla letteratura e da altre fonti sui metodi per sintetizzare sostanze chimiche, sulle loro proprietà e reattività. Ciò consente già di ridurre notevolmente il costo del noleggio. un largo numero chimici qualificati (di solito sottopagati dai paesi del terzo mondo) che estraggono informazioni da un'enorme quantità di letteratura pubblicata per integrare i database.

Con un metodo di rifornimento così "manuale", una parte significativa del potenziale informazioni utili risulta essere "perso". I metodi di intelligenza artificiale stanno anche iniziando a essere utilizzati per elaborare e analizzare automaticamente le informazioni già raccolte nei database, trovare errori, correggerli e reintegrare automaticamente le informazioni mancanti, il che può aumentare significativamente il valore di tali informazioni per i chimici sintetici.

Va notato che il Laboratorio di Chemioinformatica dell'Università Federale di Kazan occupa una posizione di primo piano in questa direzione. I chimici sintetici stanno già iniziando ad essere utilizzati nel loro lavoro come riviste di lavoro "elettroniche i Quaderni” (quaderni elettronici), che in futuro saranno saturi di strumenti di intelligenza artificiale e diventeranno il principale mezzo di raccolta di informazioni chimiche.

In futuro, l'intelligenza artificiale assumerà il ruolo di rivedere e analizzare regolarmente l'enorme quantità di letteratura pubblicata sulla sintesi chimica e le proprietà delle sostanze chimiche, che attualmente richiede una notevole quantità di tempo per tutti i chimici e che già fanno male. In futuro, i chimici avranno "assistenti intellettuali" che saranno in grado di rispondere a qualsiasi domanda che sorga nel loro lavoro, ad esempio come sintetizzare in modo ottimale le sostanze chimiche, quali sostanze dovrebbero essere sintetizzate per un determinato scopo. Gli strumenti di intelligenza artificiale vengono già integrati dai campi della chimica sintetica, della farmacologia, della bioinformatica, della scienza dei materiali e della robotica. Ciò porterà in futuro al fatto che l'IA non solo pianificherà, ma eseguirà anche sintesi chimiche di routine, il che aumenterà in modo significativo l'efficienza dello sviluppo di nuovi farmaci e nuovi materiali. Penso che in un futuro un po' più lontano, l'IA diventerà lo strumento principale per pianificare e condurre ricerche scientifiche nel campo della chimica. Il moderno sviluppo della chemioinformatica mira proprio a questo.

Ora molti, tra cui un certo numero di eminenti scienziati, vedono un grande pericolo nell'introduzione diffusa dell'IA, che può togliere posti di lavoro alle persone e, forse, persino rendere superflua l'esistenza dell'umanità. Tutti ricordano immediatamente il film "Terminator". Un tale pericolo, ovviamente, esiste, ma pericoli simili sono sorti con l'introduzione di macchine e Tecnologie informatiche. Penso che lo sviluppo dell'IA porterà più all'emergere di ulteriori specialità e posti di lavoro che all'eliminazione di quelli vecchi. Nel campo della chimica sintetica, l'intelligenza artificiale salverà le persone dal lavoro di routine che occupa la maggior parte del tempo e renderà il lavoro dei chimici molto più creativo e produttivo. È più probabile che l'intelligenza artificiale aiuti nello sviluppo e nell'uso efficace delle capacità umane piuttosto che rappresentarne una minaccia.

Le domande sono state poste da Misha Batin e Seryozha Markov.

  • Mustafina Nailya Mugattarovna, scapolo, studente
  • Bashkir State Agrarian University
  • Sharafutdinov Aidar Gazizyanovich, Candidato di Scienze, Professore Associato, Professore Associato
  • Bashkir State Agrarian University
  • MACCHINE COMPUTATORIE
  • TECNICA
  • LA SCIENZA
  • INTELLIGENZA ARTIFICIALE

Oggi, il progresso scientifico e tecnologico si sta sviluppando rapidamente. Una delle sue industrie in rapida crescita è l'intelligenza artificiale.

Oggi, il progresso tecnologico si sta sviluppando rapidamente. La scienza non si ferma e ogni anno le persone escogitano tecnologie sempre più avanzate. Una delle nuove direzioni nello sviluppo del progresso tecnologico è l'intelligenza artificiale.

L'umanità ha sentito parlare per la prima volta dell'intelligenza artificiale più di 50 anni fa. Accadde in una conferenza tenutasi nel 1956 alla Dartmouth University, dove John McCarthy diede al termine una definizione chiara e precisa. “L'intelligenza artificiale è la scienza della creazione di macchine intelligenti e programmi per computer. Ai fini di questa scienza, i computer sono utilizzati come mezzo per comprendere le caratteristiche dell'intelligenza umana, allo stesso tempo, lo studio dell'IA non dovrebbe essere limitato all'uso di metodi biologicamente plausibili.

Intelligenza artificiale computer moderni un livello piuttosto alto, ma non al livello che le loro capacità comportamentali non siano inferiori almeno agli animali più primitivi.

Il risultato della ricerca sull '"intelligenza artificiale" è il desiderio di comprendere il lavoro del cervello, di svelare i segreti della coscienza umana e il problema di creare macchine con un certo livello di intelligenza umana. La possibilità fondamentale di modellare i processi intellettuali ne consegue che qualsiasi funzione del cervello, qualsiasi attività mentale, descritta da un linguaggio con una semantica rigorosamente univoca utilizzando un numero finito di parole, può in linea di principio essere trasferita a un computer elettronico digitale.

Attualmente sono stati sviluppati alcuni modelli di intelligenza artificiale in vari campi, ma non è stato ancora creato un computer in grado di elaborare informazioni in nessun nuovo campo.

Tra le classi di compiti più importanti che sono state poste agli sviluppatori di sistemi intelligenti sin dalla definizione dell'intelligenza artificiale come direzione scientifica, vanno individuate le seguenti. aree dell'intelligenza artificiale:

  • Dimostrazione di teoremi. Lo studio delle tecniche di dimostrazione di teoremi ha svolto un ruolo importante nello sviluppo dell'intelligenza artificiale. Molti problemi informali, ad esempio la diagnostica medica, utilizzano gli approcci metodologici utilizzati per automatizzare la dimostrazione dei teoremi durante la risoluzione. La ricerca di una dimostrazione di un teorema matematico richiede non solo deduzioni da ipotesi, ma anche intuizioni su quali affermazioni intermedie debbano essere dimostrate per la dimostrazione generale del teorema principale.
  • Riconoscimento delle immagini. L'uso dell'intelligenza artificiale per il riconoscimento di modelli ha permesso di creare sistemi praticamente funzionanti per identificare oggetti grafici basati su caratteristiche simili. Qualsiasi caratteristica degli oggetti da riconoscere può essere considerata come segno. Le caratteristiche devono essere invarianti rispetto all'orientamento, alle dimensioni e alla forma degli oggetti. L'alfabeto dei segni è formato dallo sviluppatore del sistema. La qualità del riconoscimento dipende in gran parte da quanto è valido l'alfabeto delle caratteristiche stabilito. Il riconoscimento consiste nell'ottenere a priori un vettore di caratteristiche per un oggetto separato selezionato sull'immagine e, quindi, nel determinare a quale degli standard dell'alfabeto delle caratteristiche corrisponde questo vettore.
  • Traduzione automatica e comprensione del linguaggio umano. Il compito di analizzare le frasi del linguaggio umano utilizzando un dizionario è un compito tipico dei sistemi di intelligenza artificiale. Per risolverlo è stato creato un linguaggio intermedio per facilitare il confronto di frasi di lingue diverse. In futuro, questo linguaggio intermediario si è trasformato in un modello semantico per rappresentare i significati dei testi da tradurre. L'evoluzione del modello semantico ha portato alla creazione di un linguaggio per la rappresentazione interna della conoscenza. Di conseguenza, sistemi moderni svolgere l'analisi di testi e frasi in quattro fasi principali: analisi morfologica, analisi sintattica, semantica e pragmatica.
  • Programmi di gioco. La maggior parte dei programmi di gioco si basa su alcune idee di base dell'intelligenza artificiale, come l'enumerazione delle opzioni e l'autoapprendimento. Uno dei compiti più interessanti nel campo dei programmi di gioco che utilizzano metodi di intelligenza artificiale è insegnare a un computer a giocare a scacchi. È stato fondato all'alba informatica, alla fine degli anni '50. Negli scacchi ci sono determinati livelli di abilità, gradi di qualità del gioco, che possono fornire criteri chiari per valutare la crescita intellettuale del sistema. Pertanto, gli scienziati di tutto il mondo sono stati attivamente coinvolti negli scacchi per computer ei risultati dei loro risultati sono utilizzati in altri sviluppi intellettuali di reale importanza pratica.
  • Creatività della macchina. Una delle aree di applicazione dell'intelligenza artificiale comprende sistemi software in grado di creare autonomamente musica, poesie, storie, articoli, diplomi e persino dissertazioni. Oggi esiste un'intera classe di linguaggi di programmazione musicale (ad esempio, il linguaggio C-Sound). Per varie attività musicali è stato creato un software speciale: sistemi di elaborazione del suono, sintesi del suono, sistemi di composizione interattiva, programmi di composizione algoritmica.
  • Sistemi esperti. I metodi di intelligenza artificiale hanno trovato applicazione nella creazione di sistemi di consulenza automatizzati o sistemi esperti. I primi sistemi esperti sono stati sviluppati come strumenti di ricerca negli anni '60. Erano sistemi di intelligenza artificiale specificamente progettati per risolvere problemi complessi in un'area tematica ristretta, come la diagnosi medica delle malattie. L'obiettivo classico di questa direzione era inizialmente quello di creare un sistema di intelligenza artificiale generico in grado di risolvere qualsiasi problema senza conoscenze specifiche nell'area tematica. A causa della limitata capacità delle risorse di calcolo, questo problema si è rivelato troppo difficile da risolvere con un risultato accettabile.

Possiamo dire che l'obiettivo principale dello sviluppo dell'intelligenza artificiale è l'ottimizzazione, immagina come una persona, senza essere in pericolo, potrebbe studiare altri pianeti, estrarre metalli preziosi.

Pertanto, possiamo concludere che lo studio e lo sviluppo dell'intelligenza artificiale è importante per l'intera società. Dopotutto, con l'uso di questo sistema, è possibile proteggere e facilitare la vita umana.

Bibliografia

  1. Yasnitsky L.N. Sulle possibilità di utilizzo dell'intelligenza artificiale [risorsa elettronica]: biblioteca elettronica scientifica. URL: http://cyberleninka.ru/ (accesso 06/01/2016)
  2. Yastreb N.A. Intelligenza artificiale [risorsa elettronica]: biblioteca elettronica scientifica. URL: http://cyberleninka.ru/ (accesso 06/01/2016)
  3. Abdulatipova M.A. Intelligenza artificiale [risorsa elettronica]: biblioteca elettronica scientifica. URL: http://cyberleninka.ru/ (accesso 06/01/2016)

In questo articolo, condividerò la mia esperienza sulla crescita della più semplice intelligenza artificiale (AI) utilizzando un algoritmo genetico e parlerò anche dell'insieme minimo di comandi richiesti per formare qualsiasi comportamento.

Il risultato del lavoro è stato che l'IA, non conoscendo le regole, ha padroneggiato autonomamente il gioco del tris e ha trovato i punti deboli dei robot che giocavano contro di essa. Ma ho iniziato con un problema ancora più semplice.

Set di comandi

Tutto è iniziato con la preparazione di una serie di comandi che l'IA poteva avere. I linguaggi di alto livello contengono centinaia di operatori diversi. Per evidenziare il minimo necessario, ho deciso di ricorrere al linguaggio Assembly. Tuttavia, si è scoperto che contiene anche molti comandi.

Avevo bisogno dell'intelligenza artificiale per poter leggere ed emettere dati, lavorare con la memoria, eseguire calcoli e operazioni logiche, effettuare transizioni e cicli. Mi sono imbattuto nel linguaggio Brainfuck, che ha solo 8 istruzioni e può eseguire qualsiasi calcolo (ad es. Turing completo). In linea di principio è adatto alla programmazione genetica, ma sono andato oltre.

Mi chiedevo: qual è il numero minimo di comandi necessari per implementare qualsiasi algoritmo? Come si è scoperto - uno!

Il processore URISC contiene solo un'istruzione: sottrazione e salto seguendo le istruzioni se il sottraendo era maggiore del minuendo. Questo è sufficiente per costruire qualsiasi algoritmo.

Oleg Mazonka è andato ancora oltre, ha sviluppato il comando BitBitJump e ha dimostrato che è Turing completo. Il comando contiene tre indirizzi, copia un bit dal primo al secondo indirizzo di memoria e trasferisce il controllo al terzo indirizzo.

Prendendo in prestito le idee di Oleg, per semplificare il lavoro, ho sviluppato il comando SumIfJump. Il comando contiene quattro operandi: A, B, C, D e fa quanto segue: aggiunge i dati dalla cella all'indirizzo A alla cella all'indirizzo B, se il valore è maggiore dell'* specificato, allora va all'indirizzo C, altrimenti va all'indirizzo D.

Nota

*IN questo caso usato 128 - metà della lunghezza del genoma.


Quando l'operando A fa riferimento alla posizione di memoria N0, i dati vengono immessi e quando si accede all'operando A alla posizione di memoria N1, quindi viene emesso.

Di seguito è riportato il codice SumIfJump in FreePascal (una versione gratuita di Delphi).

Procedura RunProg(s: TData); var a, b, c, d: TData; comincia Inc(NSstep); se NStep > MaxStep allora inizia ProgResult:= "MaxStep"; Uscita; FINE; a:=s; b:= s + 1; c:= s + 2; d:= s + 3; a:= Prog[a]; b:= Prog[b]; c:= Prog[c]; d:= Prog[d]; se a = 0 allora inizia ProgResult:= "Input"; Uscita; FINE; se a = 1 allora inizia ProgResult:= "Output"; Uscita; FINE; Prog[b] := Prog[b] + Prog[a]; se Prog[b]< ProgLength div 2 then RunProg(c) else RunProg(d); end;
SumIfJump implementa il codice automodificante. Può eseguire qualsiasi algoritmo disponibile in un linguaggio di programmazione comune. Il codice è facilmente modificabile e resiste a qualsiasi manipolazione.

Compito semplice

Quindi, la nostra IA ha un solo comando. Finora, il tris è un gioco molto difficile per lui, e ho iniziato con uno più facile.

Il bot fornisce un numero casuale e l'IA deve leggere i dati e dare una risposta. Se il numero è superiore alla media (da un intervallo di numeri casuali), l'IA dovrebbe restituire un numero inferiore alla media e viceversa.

Il genoma della nostra IA è composto da 256 celle con valori da 0 a 255. Ogni valore è una memoria, un codice e un indirizzo. Il numero di passaggi di esecuzione del codice è limitato a 256. Gli operandi vengono letti uno dopo l'altro.

Inizialmente, il genoma è formato da un insieme di numeri casuali, quindi l'IA non sa di cosa ha bisogno per giocare. Inoltre, non sa che deve inserire e produrre dati in modo coerente quando risponde al bot.

Popolazione e selezione

La prima popolazione è composta da 256 IA che iniziano a giocare con il bot. Se l'IA fa la cosa giusta, come chiedere input e poi emettere qualcosa, allora l'IA ottiene punti. Le azioni più corrette, più punti.

Le 16 IA con il maggior numero di punti danno ciascuna 15 figli e continuano a partecipare al gioco. La prole è un mutante. La mutazione avviene sostituendo una copia del genitore di una cella casuale con un valore casuale.

Se nessuna IA ha ottenuto punti nella prima popolazione, viene formata la popolazione successiva. E così via finché una delle IA non inizia a compiere le azioni giuste e a dare la prole "giusta".

Evoluzione


Migliaia di passaggi generazionali sono avvenuti tra eventi significativi. Il programma è stato eseguito in più thread su un Core i7. I calcoli hanno richiesto circa 15 minuti.

  1. Quando il "leader" dell'IA ha fatto errore casuale e non ha ottenuto abbastanza punti, la popolazione ha iniziato a degradarsi, perché. la prole era formata da genitori "secondari".
  2. È successo così che in un flusso con estranei che segnavano il tempo, si è verificata una mutazione riuscita, fornendo un aumento esplosivo dei punti segnati. Successivamente, questo flusso è diventato il leader.
  3. A volte per molto tempo non ci sono state mutazioni riuscite e anche 500mila generazioni non sono bastate per completare la selezione.

Conclusione

Infine, ho fatto lo stesso con il gioco del tris. La dimensione del genoma era la stessa del primo caso. Il numero di passaggi è stato aumentato a 1024 e la dimensione della popolazione a 64 (per un calcolo più rapido). Il calcolo ha richiesto un po' più di tempo. Tutto è successo secondo lo stesso scenario.

All'inizio, l'IA ha giocato contro un "randomizer". È così che ho chiamato un robot che cammina a caso. Abbastanza rapidamente, l'IA ha iniziato a batterlo, riempiendo qualsiasi riga. Successivamente, ho reso il compito più difficile aggiungendo un po' di intelligenza al randomizzatore: occupare la corsia se possibile o difendersi. Tuttavia, in questo caso, l'IA ha scoperto i punti deboli del robot e ha iniziato a picchiarlo. Forse questa storia è un argomento per un articolo separato.

Il figlio mi ha chiesto di scrivere un programma in modo che l'IA giochi tra di loro e non con il robot. C'erano idee per fare lo stesso per il gioco della dama o andare, tuttavia, non avevo più abbastanza tempo per questo.

L'unico metodo che ho usato per ottenere nuovi individui è la mutazione. Puoi anche usare il crossover e l'inversione. Forse questi metodi accelereranno l'ottenimento del risultato desiderato.

Alla fine è nata un'idea: dare all'IA la capacità di gestire tutti i processi su un PC e lottare per le risorse del computer. Collega un PC a Internet e utilizza un pool di vecchie fattorie bitcoin come potenza di calcolo ...

Come ha detto, conducendo un esperimento simile, il blogger

Che potrebbero perdere il lavoro a causa dell'automazione del lavoro. Ma poche persone pensano a come queste tecnologie possano migliorare e facilitare il lavoro umano. Ecco alcuni esempi.

Sarai in grado di cercare lavoro e assumere dipendenti più velocemente e meglio

L'intelligenza artificiale può cambiare in modo significativo il processo di ricerca dei candidati, afferma Alexander Rinke, co-fondatore e CEO di Celonis. L'intelligenza artificiale di Celonis ti consente di determinare il turnover dei dipendenti e il costo dell'assunzione di un dipendente e calcola anche quali posizioni richiedono più tempo per cercare dipendenti. Ad esempio, un cliente di Celonis è stato in grado di rilevare i problemi di assunzione, ridurre i costi di reclutamento del 30% e accelerare il processo di onboarding per i nuovi assunti.

L'intelligenza artificiale semplifica la scrittura di curriculum e la ricezione di inviti ai colloqui. Ad esempio, iCIMS, insieme a Google, ha sviluppato una tecnologia che consente di cercare un lavoro direttamente in un motore di ricerca, e tutto grazie all'apprendimento automatico e all'intelligenza artificiale di Google.

Secondo il direttore marketing di iCIMS Susan Whiteil, la tecnologia è stata in grado di ridurre il numero di offerte di lavoro obsolete. È anche al centro del programma closed beta di Cloud Jobs Discovery. Questo programma cerca posti vacanti non solo esattamente da parole chiave- ad esempio, se una persona cerca una posizione CTO, gli mostrerà non solo i posti vacanti del "direttore tecnico", ma anche il "direttore della tecnologia". Il suo modello utilizza la ricerca concettuale e mostra tutte le professioni correlate (ad esempio, non solo un cassiere, ma anche un assistente alle vendite e un direttore di negozio).

Sarai più produttivo

John Farno, CEO e co-fondatore di Hive, ritiene che l'analisi predittiva ci aiuterà a capire meglio come lavoriamo. "È in grado di dire, ad esempio, chi lavora più attivamente la sera - uomini o donne, o è vero che le persone lavorano peggio il venerdì in estate". Quest'ultimo, a proposito, è un mito. La produttività è sempre inferiore il venerdì, indipendentemente dal periodo dell'anno.

Utilizzando i dati di oltre 30.000 attività svolte negli spazi di coworking Hive, l'azienda è stata in grado di identificare alcuni modelli nei cambiamenti di produttività. Ad esempio, gli uomini sono molto più produttivi al mattino e dopo pranzo la loro produttività diminuisce drasticamente. Per le donne è vero il contrario: la loro giornata lavorativa inizia lentamente, ma verso la fine lavorano in modo più produttivo. Inoltre, l'analisi delle chat ha mostrato che le donne sono in grado di svolgere più compiti durante la corrispondenza.

"In particolare, l'intelligenza artificiale aiuterà a risolvere il problema del divario salariale tra uomini e donne, nonché tra dirigenti e dipendenti ordinari", ha affermato Jensen. "Secondo le statistiche, nelle aziende in cima alla lista Fortune 500, questa differenza può raggiungere quasi 5.000 a 1." Inoltre, l'uso della tecnologia che determina una retribuzione equa ridurrà il rischio di turnover dei dipendenti e contribuirà a ridurre i costi per trovare un dipendente sostitutivo.

Migliora la qualità delle tue riunioni

La realtà aumentata (AR) è ancora in fase di sviluppo, ma funziona grazie all'intelligenza artificiale e al machine learning. Christa Manning, vicepresidente di Bersin presso Deloitte Consulting, ritiene che l'AR possa aiutarti a trovare le informazioni, il luogo e il momento giusti per prendere importanti decisioni aziendali.

Ad esempio, questa tecnologia può essere utilizzata nelle riunioni video. “Immagina di partecipare a una videoconferenza e di vedere informazioni in realtà aumentata sullo stile di comunicazione di un collega, consigli utili e un promemoria di ciò che deve essere discusso con lui", ha detto Manning.

Emergeranno leader migliori

La piattaforma Indiggo utilizza la propria intelligenza artificiale chiamata indi, che agisce come una specie di cervello che ha tutta la conoscenza dell'azienda per 15 anni di lavoro. Il suo algoritmo esamina le dimensioni del team di gestione di un'azienda e stima quanto tempo ha perso. Il programma esamina i calendari di ogni capo per capire a cosa dedica il suo tempo. L'intelligenza artificiale conduce quindi un sondaggio speciale tra alcuni manager per scoprire quali sono le loro priorità e come si adattano all'azienda.

"Paradossalmente, tutte queste innovazioni tecnologiche sottolineano solo l'indispensabilità del lavoro umano", ha affermato Alexander Rinke, CEO di Celonis. "Dopotutto, le persone sono molto più brave nei compiti che implicano causalità, valutazione e interazione con altre persone".

Conferenza1 5 . Tecnologie di intelligenza artificiale

Piano

    Il concetto di intelligenza artificiale.

    Applicazioni dell'IA.

    Il concetto di espertosistemi.

    Il concetto di intelligenza artificiale

« Intelligenza- la totalità di tutte le funzioni cognitive di un individuo: dalle sensazioni e dalla percezione al pensiero e all'immaginazione; in un senso più ristretto: pensare. I. - la principale forma di conoscenza umana della realtà. Ci sono tre varietà nella comprensione della funzione di I.: 1) la capacità di apprendere; 2) operare con i simboli; 3) la capacità di padroneggiare attivamente i modelli della realtà che ci circonda "(Rapatsevich E.S. Dizionario-libro di riferimento sulla creatività scientifica e tecnica. - Mn .: Etonim LLC, 1995. - 384 p. - P. 51-52.). ( CC 2)

Qualsiasi attività intellettuale si basa sulla conoscenza. Questa conoscenza include le caratteristiche della situazione attuale, le valutazioni della possibilità di eseguire determinate azioni, le leggi e gli schemi del mondo in cui viene eseguita l'attività e molto altro. Nei programmi che iniziarono a essere creati quando apparvero i computer, la conoscenza necessaria veniva immagazzinata nella memoria dei programmatori che scrivevano i programmi. Il suo computer eseguiva meccanicamente la sequenza dei comandi del programma immagazzinati nella sua memoria. Non era richiesta alcuna conoscenza per questo computer.

« intelligenza artificiale – 1) simbolo i sistemi cibernetici e il loro supporto logico e matematico progettati per risolvere alcuni problemi che solitamente richiedono l'uso delle capacità intellettive umane; 2) un insieme di capacità funzionali di un computer elettronico (computer) per risolvere problemi che in precedenza richiedevano la partecipazione obbligatoria di una persona” (Ibid., p. 54).

La differenza fondamentale tra i sistemi di intelligenza artificiale è quella per tali sistemi il programmatore non prepara programmi specifici per l'esecuzione. Una persona assegna alla macchina solo il compito necessario e il programma che esegue questo compito deve essere creato dal sistema stesso. Ciò richiede la conoscenza sia dell'area disciplinare a cui appartiene l'attività, sia di come vengono costruiti i programmi. Tutta questa conoscenza è immagazzinata in sistemi intelligenti in un blocco speciale chiamato knowledge base.

La conoscenza memorizzata nella base di conoscenza è registrata in un'apposita forma formalizzata. La base di conoscenza può implementare procedure per generalizzare la correzione della conoscenza immagazzinata, nonché procedure che creano nuove conoscenze basate su quelle già esistenti.

L'intelligenza artificiale è una delle più recenti aree della scienza apparse a metà degli anni '60. 20 ° secolo basato su tecnologia informatica, logica matematica, programmazione, psicologia, linguistica, neurofisiologia e altri rami della conoscenza. L'intelligenza artificiale è un esempio di ricerca interdisciplinare, in cui si combinano gli interessi professionali di specialisti di diversi profili. Il nome stesso della nuova scienza è nato alla fine degli anni '60. e nel 1969 si tenne a Washington (USA) la prima Conferenza Mondiale sull'Intelligenza Artificiale.

Quando tra la fine degli anni '40 e l'inizio degli anni '50. apparvero i computer, divenne chiaro che ingegneri e matematici crearono non solo un dispositivo di calcolo veloce, ma qualcosa di più significativo. Si è scoperto che con l'aiuto di EIM è possibile risolvere vari enigmi, problemi logici, giocare a scacchi e creare programmi di gioco. I computer hanno iniziato a prendere parte ai processi creativi: comporre melodie musicali, poesie e persino fiabe. Apparvero programmi per la traduzione da una lingua all'altra, per il riconoscimento di forme e per la dimostrazione di teoremi. Ciò ha testimoniato che con l'aiuto di un computer e dei programmi corrispondenti è possibile automatizzare tali tipi di attività umana, che sono chiamati intellettuali e sono considerati accessibili solo a una persona. Nonostante la grande varietà di programmi non computazionali creati all'inizio degli anni '60, la programmazione nel campo dell'attività intellettuale era in una posizione molto peggiore rispetto alla risoluzione di problemi computazionali. Il motivo è ovvio. La programmazione per compiti di natura computazionale era basata sulla teoria corrispondente: la matematica computazionale. Sulla base di questa teoria, sono stati sviluppati molti metodi per risolvere i problemi. Questi metodi sono diventati la base per i programmi corrispondenti. Non c'era niente di simile per le attività non computazionali. Qualsiasi programma qui era unico, come un'opera d'arte. L'esperienza nella creazione di tali programmi non è stata in alcun modo generalizzata, la capacità di crearli non è stata formalizzata.

Quando un programmatore ha creato un programma per giocare a scacchi, ha utilizzato le proprie conoscenze sul processo di gioco. Li ha inseriti nel programma e il computer ha eseguito solo tecnicamente questo programma. Si può dire che il computer "non distingueva" i programmi computazionali da quelli non computazionali. Ha trovato le radici di un'equazione quadratica allo stesso modo o ha scritto poesie. Non c'era alcuna conoscenza nella memoria del computer di ciò che stava effettivamente facendo.

Si potrebbe parlare dell'intelligenza di un computer se me stessa, sulla base della conoscenza di come procede il gioco degli scacchi e di come le persone giocano a questo gioco, è riuscito a comporre un programma di scacchi o ha sintetizzato un programma per scrivere semplici valzer e marce.

Non le procedure stesse, con l'aiuto delle quali viene eseguita questa o quell'attività intellettuale, ma capire come crearli, come apprendere un nuovo tipo di attività intellettuale, - è qui che si nasconde ciò che può essere chiamato intelletto. Procedure speciali per insegnare nuovi tipi di attività intellettuale distinguono una persona da un computer. Di conseguenza, nella creazione dell'intelligenza artificiale, il compito principale è l'implementazione da parte di macchine utensili di quelle procedure utilizzate nell'attività intellettuale umana. Quali sono queste procedure?

È possibile formulare gli scopi e gli obiettivi principali dell'intelligenza artificiale. L'oggetto di studio l'intelligenza artificiale sono le procedure utilizzate per risolvere i problemi umani, tradizionalmente chiamati intellettuali o creativi. Ma se la psicologia del pensiero studia queste procedure in relazione a una persona, allora l'intelligenza artificiale crea modelli software (e ora anche software e hardware) di tali procedure.

Bersaglio ricerca nel campo dell'intelligenza artificiale - la creazione di un arsenale di procedure sufficienti per i computer (o altro sistemi tecnici, ad esempio, i robot) potrebbero trovare le loro soluzioni impostando problemi. In altre parole, sono diventati programmatori autonomi in grado di svolgere il lavoro di programmatori professionisti - ingegneri applicati (creando programmi per risolvere problemi in una specifica area tematica). Naturalmente, l'obiettivo formulato non esaurisce tutti i compiti che l'intelligenza artificiale si prefigge. Questo è il prossimo obiettivo. Gli obiettivi successivi sono collegati al tentativo di penetrare in aree del pensiero umano che si trovano al di fuori della sfera del pensiero razionale e verbale (verbale). Perché nella ricerca di una soluzione a molti problemi, specialmente quelli molto diversi da quelli precedentemente risolti, gioca un ruolo importante quella sfera del pensiero, che si chiama subconscio, inconscio o intuitivo.

I principali metodi utilizzati nell'intelligenza artificiale sono vari modelli e strumenti software, esperimenti al computer e modelli teorici. Tuttavia, i computer moderni non soddisfano più gli specialisti dell'intelligenza artificiale. Non hanno nulla a che fare con il modo in cui funziona il cervello umano, quindi c'è un'intensa ricerca di nuove strutture tecniche che possano risolvere meglio i problemi associati ai processi intellettuali. Ciò include la ricerca su reti artificiali di tipo neurale, tentativi di costruire macchine molecolari, lavoro nel campo dei sistemi olografici e molto altro.

Ci sono diversi problemi principali studiati nell'intelligenza artificiale.

    La rappresentazione della conoscenza è lo sviluppo di metodi e tecniche per la formalizzazione e il successivo input nella memoria di un sistema di conoscenza intelligente da varie aree problematiche, generalizzazione e classificazione della conoscenza accumulata nella risoluzione dei problemi.

    Ragionamento modellistico - studio e formalizzazione vari schemi inferenze umane utilizzate nel processo di risoluzione di vari problemi, la creazione di programmi efficaci per l'implementazione di questi schemi nei computer.

    Procedure di dialogo per la comunicazione in linguaggio naturale, fornendo il contatto tra un sistema intelligente e uno specialista umano nel processo di risoluzione dei problemi.

    La pianificazione dell'attività utile è lo sviluppo di metodi per la costruzione di programmi di attività complessi basati sulla conoscenza dell'area problematica immagazzinata nel sistema intellettuale.

    Formazione di sistemi intelligenti nel processo della loro attività, creazione di una serie di strumenti per l'accumulo e la generalizzazione delle abilità e abilità accumulate in tali sistemi.

Oltre a questi problemi, se ne stanno indagando molti altri, che costituiscono le basi su cui si baseranno gli specialisti per il prossimo round di sviluppo della teoria dell'intelligenza artificiale.

I sistemi intelligenti vengono già introdotti nella pratica dell'attività umana. Questi sono i sistemi esperti più noti a una vasta gamma di specialisti che trasferiscono l'esperienza di specialisti più qualificati a quelli meno qualificati e sistemi di informazione intelligenti (ad esempio sistemi di traduzione automatica) e robot intelligenti, altri sistemi che hanno tutto il diritto di essere definiti intelligenti. Senza tali sistemi, il moderno progresso scientifico e tecnologico non è più possibile.

Allo stato attuale, l'IA è un potente ramo dell'informatica, che ha sia fondamenti fondamentali, puramente scientifici, sia aspetti tecnici e applicati altamente sviluppati relativi alla creazione e al funzionamento di campioni efficienti di sistemi intelligenti. È dai risultati di questi lavori che dipende l'emergere di computer di quinta generazione.

Qualsiasi compito, il cui algoritmo risolutivo non è noto, può essere attribuito al campo dell'IA (partita a scacchi, diagnostica medica, sintesi testuale, traduzione in una lingua straniera). Le caratteristiche dei compiti di AI sono l'uso di informazioni in forma simbolica e la disponibilità di una scelta tra una varietà di opzioni in condizioni di incertezza.

La direzione più promettente nello sviluppo dei sistemi di apprendimento informatico è la tecnologia dell'intelligenza artificiale. I sistemi che utilizzano la metodologia AI sono chiamati sistemi di apprendimento intelligenti (ITS). ITS implementa l'interazione adattiva e bidirezionale finalizzata all'effettivo trasferimento della conoscenza.Il modo più promettente per lo sviluppo di ITS è, apparentemente, il modo di creare sistemi di autoapprendimento che acquisiscono conoscenza in un dialogo con una persona.

2. Applicazioni dell'IA

I sistemi di intelligenza artificiale sono dispositivi o programmi che hanno caratteristiche inerenti al comportamento intellettuale umano come la comprensione e l'uso del linguaggio, la causalità del comportamento, la capacità di risolvere problemi, la capacità di rispondere in modo flessibile a una situazione, trarre vantaggio da situazioni favorevoli, trovare una soluzione in situazioni ambigue o contraddittorie, riconoscere l'importanza relativa di vari elementi di situazioni, trovare somiglianze tra loro nonostante la loro differenza.

I sistemi software che implementano algoritmi per i quali non esiste un modello di soluzione formale sono chiamati euristici e appartengono all'IA. I compiti AI sono compiti in cui non è formalizzato il processo di soluzione, ma il processo di ricerca di una soluzione.

Più ampiamente, i sistemi di intelligenza artificiale vengono utilizzati per risolvere i seguenti problemi:

    Il riconoscimento del modello è un sistema tecnico che percepisce informazioni visive e sonore (codifica e le inserisce nella memoria), problemi di comprensione e ragionamento logico nel processo di elaborazione delle informazioni visive e vocali.

    Modellazione del ragionamento: lo studio del ragionamento umano nell'intelligenza artificiale è solo all'inizio, ma senza creare modelli formali per tale ragionamento, è molto difficile produrre in sistemi intelligenti tutte le caratteristiche del ragionamento di specialisti che risolvono quei problemi che vogliamo mettere a disposizione dei sistemi artificiali. Nei sistemi esperti già creati oggi, si realizzano non solo conclusioni logiche affidabili, ma anche ragionamenti plausibili e una serie di altri ragionamenti non monotoni. Apparvero i primi programmi di ragionamento per analogia e associazione.

    Sistemi di calcolo simbolici

    Sistemi con logica fuzzy: l'inferenza fuzzy è ampiamente utilizzata, perché riflette la somma delle conoscenze umane su molti fenomeni del mondo reale. Quando si pianifica il comportamento in robot e altri sistemi di intelligenza artificiale che operano in ambienti descritti in modo incompleto, quando si prendono decisioni in assenza di informazioni complete, in sistemi esperti con conoscenza parziale dell'area tematica e in molte altre situazioni, l'inferenza fuzzy è indispensabile

    La psicologia cognitiva è una delle aree della moderna scienza psicologica associata alla ricerca delle cause interne di un particolare comportamento di un sistema vivente. Di norma, l'oggetto di studio è la conoscenza di se stesso e del mondo che lo circonda da parte di una persona, nonché i processi cognitivi che assicurano l'acquisizione, la conservazione e la trasformazione di questa conoscenza.

    Comprensione del linguaggio naturale - analisi e generazione di testi, loro rappresentazione interna.

    I sistemi esperti sono sistemi che utilizzano la conoscenza di specialisti in attività specifiche.

    La linguistica computazionale è nata all'intersezione tra informatica e linguistica. La nuova scienza cambiò più volte nome; all'inizio si chiamava linguistica matematica, poi linguistica strutturale e linguistica computazionale, poi già - linguistica computazionale.

    È diventato possibile automatizzare molti processi ad alta intensità di lavoro, mantenendo una varietà di vocaboli e schede lessicali. La traduzione automatica è ormai una realtà.

    Intelligenza meccanica- un insieme di hardware e software di un computer, con l'aiuto del quale è assicurata tale comunicazione tra una persona e una macchina (interfaccia), che a suo livello si avvicina alla comunicazione tra specialisti che risolvono un problema comune ..

    Pianificazione del comportamentoè una delle aree di ricerca nell'intelligenza artificiale. Il compito principale di questa direzione è la ricerca di procedure che possano offrire automaticamente la via più breve per raggiungere l'obiettivo, in base alla situazione data. Compiti di questo tipo si sono rivelati i più rilevanti per i robot che operano in modo autonomo. Risolvendo il compito assegnatogli, il robot deve elaborare un piano per la sua soluzione e cercare di realizzarlo. Se, nel processo di attuazione di questo piano, il robot è convinto che ci siano ostacoli insormontabili, allora deve costruire un altro piano in cui questi ostacoli non esistono.

    Robot intelligenti.

    Giochi - giochi caratterizzati da un numero finito di situazioni e regole ben definite, superano il livello di una persona di media abilità; ma il livello dei migliori specialisti non è stato raggiunto.

    La risoluzione dei problemi è la formulazione, l'analisi e la presentazione di situazioni di vita specifiche, la cui soluzione richiede ingegnosità, capacità di generalizzare. Cercano di utilizzare le tecnologie informatiche per implementare processi intellettuali per trovare una soluzione, quando il risultato finale è imprevedibile, è il frutto di conclusioni logiche e conclusioni a cui arriva da solo.

L'ultimo caccia russo è dotato di sistemi di intelligenza artificiale Modifiche molto più radicali sono state apportate ai sistemi elettronici di bordo del velivolo. Come risultato dell'introduzione di un sistema di controllo aereo fly-by-wire digitale multicanale, compresi i sistemi di intelligenza artificiale, il Su-37, rispetto al Su-35, riceverà ulteriori capacità senza precedenti: la capacità di fornire attacchi preventivi contro qualsiasi nemico aereo (compresi gli aerei stealth); Sicurezza multicanale e algoritmica di tutti i sistemi informativi e di targeting; Attacco di bersagli terrestri senza entrare nella zona di difesa aerea nemica; Volo a bassa quota con sorvolo ed evitamento di ostacoli al suolo, anche in modalità automatica; Azioni di gruppo automatizzate contro bersagli aerei e terrestri; Contrasto ai mezzi radioelettronici e optoelettronici del nemico; Automazione di tutte le fasi del volo e dell'uso in combattimento

Panasonic annuncia la disponibilità del nuovo proiettore AI pt AE500E. Intelligenza artificiale integrata che controlla automaticamente la luminosità della lampada in base al segnale video in ingresso, fornendo un rapporto di contrasto di 1300:1.

Lo sviluppo della tecnologia dell'informazione entusiasma la mente umana per un buon mezzo secolo. I computer sono entrati saldamente nella nostra vita quotidiana. Il lavoro in un ufficio moderno è impensabile senza Internet, la posta elettronica e il meritato riposo per molti inizia solo quando la console di gioco è accesa. I telefoni cellulari di terza generazione ora non solo trasmettono la voce, ma sostituiscono facilmente quasi tutte le apparecchiature per ufficio. Esistono persino auto con computer di bordo che possono effettuare un percorso di viaggio e consegnare un passeggero a destinazione.

Il primo processore, rilasciato da Intel l'11 novembre 1971, conteneva 2.300 transistor in un circuito delle dimensioni di un'unghia. Il microchip ha eseguito 60mila operazioni al secondo, niente per gli standard odierni, ma poi è stata una svolta seria. Da allora, la tecnologia informatica ha fatto molta strada. Ad esempio, si stima che nei 30 anni di esistenza dei microprocessori, la dimensione minima degli elementi del processore sia diminuita di 17 volte, mentre il numero di transistor sia aumentato di 18mila volte e la frequenza di clock sia aumentata di 14mila volte. L'attuale tecnologia dei processori Intel consente di realizzare transistor piccoli come una molecola e, in futuro, fino a pochi strati atomici.

L'industria della tecnologia dell'informazione è una delle aree della vita in via di sviluppo più dinamico. Secondo la legge di Moore, nel 2020 i computer raggiungeranno la potenza del cervello umano, perché. sarà in grado di eseguire 20 quadrilioni (ovvero 20.000.000 miliardi) di operazioni al secondo, ed entro il 2060, secondo alcuni futuristi, il computer eguaglierà il potere della mente con tutta l'umanità. Tuttavia, nel 1994, un PC basato su Processore Intel Il Pentium con una frequenza ridicola, ai tempi di oggi, di 90 MHz ha battuto molti dei grandi maestri più forti del mondo in una serie di tornei di scacchi, incluso il campione in carica del pianeta - Garry Kasparov.

Già oggi ci sono reali opportunità di applicare tecnologie intelligenti in quasi tutte le auto. Ad esempio, il telefono BlueConnect di Johnson Controls, un modulo vivavoce per auto integrato basato sui processori Intel PXA250 e Intel PXA210, consente al conducente di eseguire una varietà di azioni ad attivazione vocale utilizzando un telefono cellulare e la tecnologia Bluetooth.

È ovvio che ogni anno verranno utilizzati microprocessori sempre più potenti in un numero crescente di diversi dispositivi domestici. Di recente, gli specialisti Intel hanno sviluppato transistor, la cui velocità supera la velocità del Pentium 4 di quasi il 1000%. Pertanto, affermano gli scienziati della società, è stato dimostrato che non ci sono ostacoli fondamentali al continuo sviluppo di microprocessori in conformità con la legge di Moore fino alla fine di questo decennio.

Questi transistor, che hanno una dimensione di soli 20 nanometri, consentiranno a Intel di creare processori con un miliardo di transistor entro il 2007, funzionanti a frequenze fino a 20 GHz con una tensione di alimentazione di circa 1 volt. E la direzione dell'azienda sta già parlando di imminenti processori con velocità di clock fino a 30 GHz. I prerequisiti per la produzione di tali microprocessori presso Intel sono già stati creati, affermano i rappresentanti dell'azienda.

I sostenitori dell'intelligenza artificiale sono sinceramente convinti che lo scopo dell'esistenza dell'umanità sia creare una superintelligenza informatica.

L'intelligenza artificiale, nel vero senso del termine, implica una mente surrogata, ma competitiva rispetto al tipo di mente umana, "vivente", ad esempio, su basato su computer. Finora è stato possibile creare solo alcune somiglianze, "imitatori di scimmie" dell'attività intelligente umana. Sì, i rover, evitando autonomamente banali ostacoli, solcano autonomamente l'assenza di vita dei deserti del Pianeta Rosso, ma è ancora necessaria una squadra umana dalla Terra per impostare la direzione della ricerca. Sì, le unità a semiconduttore, imbottite con centinaia di milioni di transistor, hanno imparato a scrivere il testo sotto dettatura, ma la clausola più elementare, comprensibile a un ascoltatore dal vivo, le confonde immediatamente. Sì, al computer è stato insegnato a tradurre automaticamente le parole da una lingua all'altra, ma i testi ricevuti da un tale "traduttore artificiale" senza essere modificati da un esperto vivente della lingua non sono ancora di altissima qualità.

Se noti un errore, seleziona una parte di testo e premi Ctrl + Invio
CONDIVIDERE: