Dzisiejsze komputery porównać można do psów lub bardzo małych dzieci. Tak jak one, systemy uczą się poprzez obserwację, dokonując ulepszeń metodą prób i błędów. Żaden z tych procesów nie odbywa się jednak bez udziału czynnika ludzkiego. Człowiek pokazuje, daje wskazówki i poprawia błędy. Jednym z podstawowych wyzwań stojących dziś przed naukowcami pracującymi nad sztuczną inteligencją, jest znalezienie sposobu na rozwinięcie systemów, które póki co wymagają ludzkiej ingerencji, w coraz bardziej autonomiczne rozwiązania.

Robot i jego opiekun

Maszyny uczące się pod nadzorem przyjmują ogromne ilości danych w postaci obrazów, tekstu lub dźwięku. Za dostarczanie tych danych odpowiadają całe zespoły specjalistów. Informacje wchodzą w skład algorytmów, dzięki którym komputery wiedzą, czego mają szukać. Potrzeba ogromnej ilości danych, by systemy wiedziały, co widzą i słyszą. Nauczycielem i opiekunem musi być człowiek. Czy istnieje szansa na zmianę tej sytuacji?

Nagroda za wyniki

Jedną z metod, która ma przybliżyć maszyny do osiągnięcia większej samodzielności, jest uczenie ze wzmocnieniem. Proces opracowany przez profesora Richarda Suttona z Uniwersytu Alberty w Kanadzie, oparty jest na przyznawaniu nagród za pomyślne wykonanie zadania. Zasada jest bardzo prosta: system, któremu wyznaczy się zadanie, będzie tak długo parł ku jego wykonaniu, aż – metodą prób i błędów – osiągnie sukces. Czy skądś to znamy? Tak jest, badania profesora Suttona oparte są na tej samej zasadzie, co słynne eksperymenty na szczurach, które wykazały, że sprytne gryzonie potrafią nawet nauczyć się prowadzić zabawkowe samochody – byle tylko otrzymać smakowitą nagrodę (czego dowiódł eksperyment przeprowadzony w 2019 roku na Uniwersytecie w Richmond).

Przewidywanie i gra w szachy (ze sobą samym)

Innym terminem związanym z samorozwojem komputerów jest „uczenie predykcyjne”. Zgodnie z jego założeniem maszyny mają samodzielnie rozpoznawać określone wzorce, by móc przewidywać wyniki i decydować o wyborze metody działania.

Naukowcy wykorzystują również autorywalizację, aby zmotywować komputery do szybszego i bardziej efektywnego uczenia się. Maszyna gra przeciwko sobie samej, dzięki czemu stopniowo zwiększają swoje doświadczenie, a co za tym idzie również umiejętności.

Patrzę, uczę się – ewoluuję

Specjaliści wiele wiary pokładają w uczenie się maszyn przez obserwację i wyciąganie wniosków na bazie zestawu podstawowych danych. Zgodnie z tą metodą komputer, który otrzyma jedynie część informacji (np. fragment materiału wideo), będzie mógł przewidzieć, co nastąpi dalej. Nie jest to jednak takie proste. Jak twierdzi laureat nagrody Turinga doktor Yann LeCun, aby maszyna nauczyła się wyciągać wnioski z zalążków informacji, musi najpierw samodzielnie opracować pewien zestaw danych. Naukowiec podaje przykład systemu, który po obejrzeniu milionów filmów na YouTube, będzie w stanie „wydestylować z nich pewną reprezentację świata”, która stanie się bazą do podejmowanych przez niego decyzji. To też nie jest wcale takie oczywiste. Zanim komputer zacznie tworzyć właściwy obraz rzeczywistości, najpierw musi zdawać sobie sprawę z istnienia obiektów ożywionych i nieożywionych, które zachowują się przecież zupełnie inaczej. „Obiekty nieożywione mają przewidywalne trajektorie, ożywione nie ”, zaznacza naukowiec w kwietniowej rozmowie z The New York Times.

Twórca i krytyk – układ idealny

W 2017 roku laboratorium Google Brain AI pochwaliło się opracowanym przez siebie systemem Generative Adversarial Network. GAN miał za zadanie generować zupełnie nowe treści w oparciu zebrane wcześniej informacje. Metoda opracowana przez Google polegała na skonfrontowaniu ze sobą dwóch algorytmów – tworzącego i oceniającego. W praktyce jeden bot oddelegowany był do tworzenia nowej zawartości na podstawie wiedzy, którą zaczerpnął w „prawdziwym świecie”, tymczasem drugi miał za zadanie krytykować te kreacje, punktując ich niedoskonałości.

Ta konfrontacyjna metoda miała pomagać systemowi w tworzeniu jeszcze bardziej realistycznych obrazów, dźwięków i innych zupełnie oryginalnych kreacji. Dzięki współpracy „kreatora” z „krytykiem”, dzieła tego pierwszego były o wiele bardziej realistyczne. Zdaniem ekspertów Google’a proces ten pozwoli robotom uczyć się bez udziału ludzi.

Wypuśćmy je, niech się uczą!

Sergey Levine jest adiunktem na uniwersytecie w Berkley i szefem Robotic AI & Learning Lab. Założeniem jego działu jest stworzenie na tyle ogólnych algorytmów, by można było umieścić je w robotach wykonujących rzeczywiste czynności w prawdziwym świecie. Zgodnie z ideą Levine’a maszyny mają badać swoje otoczenie i na tej podstawie budować wiedzę na jego temat. Ma to być prawdziwa zabawa najbliższym środowiskiem prowadząca do sytuacji, w której robot będzie w stanie wyobrazić sobie coś, co może się wydarzyć, a następnie spróbować wykonać tę czynność samodzielnie. W ostatecznej fazie rozwoju roboty połączą się w sieć, by móc dzielić się zdobywaną wiedzą, a co za tym idzie – uczyć się od siebie.

Sztuczna inteligencja spotyka biologię

W artykule opublikowanym na łamach Neural Networks w lipcu 2019 roku zespół naukowców z Uniwersytetu w Southampton opisał ogólną architekturę, która ma umożliwić sztucznej inteligencji tworzenie oryginalnych strategii uczenia się i adaptacji do zmieniających się scenariuszy. Rozwiązanie, które nazwano „percepcją adaptacyjną”, czerpie zarówno z informatyki, jak i z biologii. Metoda minimalizuje ograniczenia sieci neuronowych podczas uczenia ze wzmocnieniem.

Naukowcy doszli do wniosku, że można uniknąć korzystania z sieci neuronowej, gdy ta nie jest niezbędna. Zamiast trenować sieć przy użyciu algorytmu, który nie musi sprawdzać się w każdym scenariuszu, pozwolono AI decydować, jak uczyć się i wykorzystywać sieć neuronową.

System poddano próbie labiryntu, podczas której wykazano, że robot może przeszukiwać korytarze i zmieniać swoje zachowanie, kiedy rozpozna znajome otoczenie. W efekcie system osiągnął wyznaczony cel, startując z losowych pozycji startowych.

Kiedy roboty zaczną się uczyć samodzielnie? Zdaniem doktora LeCuna zbudowanie maszyny, która inteligencją dorówna człowiekowi, jest kwestią czasu.

Robot i jego opiekun

Maszyny uczące się pod nadzorem przyjmują ogromne ilości danych w postaci obrazów, tekstu lub dźwięku. Za dostarczanie tych danych odpowiadają całe zespoły specjalistów. Informacje wchodzą w skład algorytmów, dzięki którym komputery wiedzą, czego mają szukać. Potrzeba ogromnej ilości danych, by systemy wiedziały, co widzą i słyszą. Nauczycielem i opiekunem musi być człowiek. Czy istnieje szansa na zmianę tej sytuacji?

Nagroda za wyniki

Jedną z metod, która ma przybliżyć maszyny do osiągnięcia większej samodzielności, jest uczenie ze wzmocnieniem. Proces opracowany przez profesora Richarda Suttona z Uniwersytu Alberty w Kanadzie, oparty jest na przyznawaniu nagród za pomyślne wykonanie zadania. Zasada jest bardzo prosta: system, któremu wyznaczy się zadanie, będzie tak długo parł ku jego wykonaniu, aż – metodą prób i błędów – osiągnie sukces. Czy skądś to znamy? Tak jest, badania profesora Suttona oparte są na tej samej zasadzie, co słynne eksperymenty na szczurach, które wykazały, że sprytne gryzonie potrafią nawet nauczyć się prowadzić zabawkowe samochody – byle tylko otrzymać smakowitą nagrodę (czego dowiódł eksperyment przeprowadzony w 2019 roku na Uniwersytecie w Richmond).

Przewidywanie i gra w szachy (ze sobą samym)

Innym terminem związanym z samorozwojem komputerów jest „uczenie predykcyjne”. Zgodnie z jego założeniem maszyny mają samodzielnie rozpoznawać określone wzorce, by móc przewidywać wyniki i decydować o wyborze metody działania.

Naukowcy wykorzystują również autorywalizację, aby zmotywować komputery do szybszego i bardziej efektywnego uczenia się. Maszyna gra przeciwko sobie samej, dzięki czemu stopniowo zwiększają swoje doświadczenie, a co za tym idzie również umiejętności.

Patrzę, uczę się – ewoluuję

Specjaliści wiele wiary pokładają w uczenie się maszyn przez obserwację i wyciąganie wniosków na bazie zestawu podstawowych danych. Zgodnie z tą metodą komputer, który otrzyma jedynie część informacji (np. fragment materiału wideo), będzie mógł przewidzieć, co nastąpi dalej. Nie jest to jednak takie proste. Jak twierdzi laureat nagrody Turinga doktor Yann LeCun, aby maszyna nauczyła się wyciągać wnioski z zalążków informacji, musi najpierw samodzielnie opracować pewien zestaw danych. Naukowiec podaje przykład systemu, który po obejrzeniu milionów filmów na YouTube, będzie w stanie „wydestylować z nich pewną reprezentację świata”, która stanie się bazą do podejmowanych przez niego decyzji. To też nie jest wcale takie oczywiste. Zanim komputer zacznie tworzyć właściwy obraz rzeczywistości, najpierw musi zdawać sobie sprawę z istnienia obiektów ożywionych i nieożywionych, które zachowują się przecież zupełnie inaczej. „Obiekty nieożywione mają przewidywalne trajektorie, ożywione nie ”, zaznacza naukowiec w kwietniowej rozmowie z The New York Times.

Twórca i krytyk – układ idealny

W 2017 roku laboratorium Google Brain AI pochwaliło się opracowanym przez siebie systemem Generative Adversarial Network. GAN miał za zadanie generować zupełnie nowe treści w oparciu zebrane wcześniej informacje. Metoda opracowana przez Google polegała na skonfrontowaniu ze sobą dwóch algorytmów – tworzącego i oceniającego. W praktyce jeden bot oddelegowany był do tworzenia nowej zawartości na podstawie wiedzy, którą zaczerpnął w „prawdziwym świecie”, tymczasem drugi miał za zadanie krytykować te kreacje, punktując ich niedoskonałości.

Ta konfrontacyjna metoda miała pomagać systemowi w tworzeniu jeszcze bardziej realistycznych obrazów, dźwięków i innych zupełnie oryginalnych kreacji. Dzięki współpracy „kreatora” z „krytykiem”, dzieła tego pierwszego były o wiele bardziej realistyczne. Zdaniem ekspertów Google’a proces ten pozwoli robotom uczyć się bez udziału ludzi.

Wypuśćmy je, niech się uczą!

Sergey Levine jest adiunktem na uniwersytecie w Berkley i szefem Robotic AI & Learning Lab. Założeniem jego działu jest stworzenie na tyle ogólnych algorytmów, by można było umieścić je w robotach wykonujących rzeczywiste czynności w prawdziwym świecie. Zgodnie z ideą Levine’a maszyny mają badać swoje otoczenie i na tej podstawie budować wiedzę na jego temat. Ma to być prawdziwa zabawa najbliższym środowiskiem prowadząca do sytuacji, w której robot będzie w stanie wyobrazić sobie coś, co może się wydarzyć, a następnie spróbować wykonać tę czynność samodzielnie. W ostatecznej fazie rozwoju roboty połączą się w sieć, by móc dzielić się zdobywaną wiedzą, a co za tym idzie – uczyć się od siebie.

Informatyka spotyka biologię

W artykule opublikowanym na łamach Neural Networks w lipcu 2019 roku zespół naukowców z Uniwersytetu w Southampton opisał ogólną architekturę, która ma umożliwić sztucznej inteligencji tworzenie oryginalnych strategii uczenia się i adaptacji do zmieniających się scenariuszy. Rozwiązanie, które nazwano „percepcją adaptacyjną”, czerpie zarówno z informatyki, jak i z biologii. Metoda minimalizuje ograniczenia sieci neuronowych podczas uczenia ze wzmocnieniem.

Naukowcy doszli do wniosku, że można uniknąć korzystania z sieci neuronowej, gdy ta nie jest niezbędna. Zamiast trenować sieć przy użyciu algorytmu, który nie musi sprawdzać się w każdym scenariuszu, pozwolono AI decydować, jak uczyć się i wykorzystywać sieć neuronową.

System poddano próbie labiryntu, podczas której wykazano, że robot może przeszukiwać korytarze i zmieniać swoje zachowanie, kiedy rozpozna znajome otoczenie. W efekcie system osiągnął wyznaczony cel, startując z losowych pozycji startowych.

Kiedy roboty zaczną się uczyć samodzielnie? Zdaniem doktora LeCuna zbudowanie maszyny, która inteligencją dorówna człowiekowi, jest kwestią czasu.


TWORZYMY INNOWACJE ZAPROGRAMOWANE NA ROZWÓJ TWOJEGO BIZNESU

Napisz do nas