Multi Skilled AI

ИИ, способный чувствовать и говорить, будет гораздо лучше справляться с новыми вызовами и работать вместе с людьми.

В конце 2012 года ученые ИИ впервые выяснили, как заставить нейронные сети «видеть.» Они доказали, что программное обеспечение, разработанное для слабой имитации человеческого мозга, может значительно улучшить существующие системы компьютерного зрения. С тех пор ученые научились заставлять нейронные сети имитировать то, как мы рассуждаем, слышим, говорим и пишем. Несмотря на то, что ИИ стал удивительно похож на человека – в достижении конкретной задачи, он все еще не захватывает гибкость человеческого мозга. Мы можем изучать навыки в одном контексте и применять их в другом. Например, игровой алгоритм DeepMind AlphaGo может победить лучших в мире гроссмейстеров, но он не сможет расширить эту стратегию за пределы доски. Другими словами, алгоритмы глубокого обучения являются мастерами в подборе паттернов, но они не могут понять и приспособиться к меняющемуся миру.У исследователей есть одна гипотеза о том, как эта проблема может быть преодолена. Дети познают мир, ощущая его и говоря о нем. По мере того как дети начинают ассоциировать слова с образами, звуками и другой осязаемой информацией, они способны описывать все более и более сложные явления и динамику, отделять причинное от того, что отражает только корреляцию, и строить сложную модель мира. Затем эта модель помогает им ориентироваться в незнакомой среде и помещать новые знания и опыт в контекст.

Системы искусственного интеллекта могут выполнять только одну из этих вещей одновременно. Алгоритмы компьютерного зрения и распознавания звука могут воспринимать вещи, но не могут использовать язык для их описания. Модель естественного языка может манипулировать словами, но слова отделены от любой чувственной реальности. Если бы чувства и язык были объединены, чтобы дать ИИ более человеческий способ сбора и обработки новой информации, то процесс понимания мира был бы развит на человеческом уровне.В прошлом году в этой области было достигнуто несколько впечатляющих результатов. В сентябре исследователи из Allen Institute for Artificial Intelligence, AI2, создали модель, которая может генерировать изображение из текстовой подписи, демонстрируя способность алгоритма ассоциировать слова с визуальной информацией. В ноябре исследователи из Университета Северной Каролины в Чапел-Хилле разработали метод, который включает изображения в существующие языковые модели, что повысило их понимание при чтении.

Более сложные многомодульные системы сделают возможным создание более продвинутых роботов-помощников (подумайте о роботах-дворецких, а не только об Alexa от Amazon или Алисе из Яндекса). Нынешнее поколение роботов с искусственным интеллектом в основном использует визуальные данные для навигации и взаимодействия с окружающей средой. Это хорошо для выполнения простых задач в стесненных условиях, например, работа на складе. Но лаборатории, такие как AI2, работают над тем, чтобы добавить язык и включить больше сенсорных входов, таких как звуковые и тактильные данные, чтобы машины могли понимать команды и выполнять более сложные операции: открытие двери, когда кто-то стучит.

Достижение более гибкого состояния ИИ сделает их более безопасными. Алгоритмы, которые просматривают резюме, не будут рассматривать несущественные характеристики, такие как пол и раса, как признаки способностей. Самоуправляемые автомобили не будут терять ориентировки в неблагоприятной обстановке и разбиваться в темноте или в снежную погоду. Многомодульные системы могут стать первыми ИИ, которым мы действительно можем доверить свою жизнь.

Комментарии