Как и зачем Google создаёт искусственный интеллект. Искусственный интеллект от Google предлагает сыграть в «Крокодила

Компания Google открыла в Цюрихе новый исследовательский центр Google Research, который будет заниматься машинным интеллектом. Теперь это один из крупнейших центров исследований, связанный с разработкой искусственного интеллекта за пределами США. Его открытие связано с новой стратегией Google, которая предполагает активное внедрение машинного интеллекта в сервисы и приложения. Уже сегодня компания использует наработки в этой области в таких продуктах, как Translate и Photos. А на конференции Google I/O 2016 были представлены мессенджер и устройство умного дома , в которых также используется машинный интеллект. С открытием нового исследовательского центра в Цюрихе, Google планирует совершить значительный прорыв в этой области. Нам удалось побывать на открытии этого центра и узнать о том, как и для чего компания разрабатывает искусственный интеллект.

Как Google создаёт искусственный интеллект?

Открывшийся в Цюрихе исследовательский центр будет заниматься разработкой в трёх ключевых для искусственного интеллекта областях: машинное обучение, машинное восприятие, а также обработка и понимание естественной речи. Все они необходимы для того, чтобы создать компьютеры следующего поколения, которые смогут учиться от людей и окружающего их мира.

Машинное обучение

Машинный или искусственный интеллект часто путают с машинным обучением, и хотя без второго не может быть первого, они основаны немного на разных принципах. Само по себе понятие «искусственный интеллект» предполагает создание компьютера, который думает, в то время как «машинное обучение» — это разработка компьютеров, которые могут учиться. «Запрограммировать компьютер, чтобы он был умным, может быть сложнее, чем запрограммировать компьютер, который учится, чтобы быть умным» — объясняет разницу Грег Коррадо (Greg Corrado), старший научный исследователь Google по машинному обучению.

Работу машинного обучения сегодня может ощутить на себе каждый пользователь электронной почты Gmail. Если раньше спам-фильтр сервиса следовал строгим правилам с ключевыми словами, то сегодня он учится на основе примеров. Отфильтровывая почту, он становится всё лучше и лучше. Это один из самых простых примеров использования машинного обучения, но сегодня Google уже создаёт более сложные самообучающиеся системы.

Для этого компания применяет три способа машинного обучения:

1. Обучение с учителем — это обучение на примерах, на манер того, как спам-фильтр Gmail фильтрует почту, получая всё новые и новые примеры спам-рассылок. Единственная проблема с этим способом: для того, чтобы он был эффективным, нужно иметь большое количество готовых примеров.

2. Обучение без учителя — это кластеризация данных, компьютеру предоставляются объекты без описания и он пытается найти между ними внутренние закономерности, зависимости и взаимосвязи. Так как данные изначально не имеют обозначений, то для системы нет сигнала ошибки или награды, и она не знает правильного решения.

3. Обучение с подкреплением — этот метод связан с «обучением с учителем», но здесь данные не просто вводятся в компьютер, а используются для решения задач. Если решение правильное, то система получает позитивный отклик, который запоминает, подкрепляя тем самым свои знания. Если же решение неверное, то компьютер получает негативный отклик, и должен найти другой способ решения задачи.

Сегодня Google в основном использует для своих сервисом метод «обучение с учителем», тем не менее, в компании отмечают, что «обучение с подкреплением» может иметь ещё больший потенциал. Именно комбинация этих двух методов была использована для создания искусственного интеллекта AlphaGo, который смог победить профессиональных игроков в игру го. Сначала компьютер со счётом 5-0 обыграл чемпиона Европы по го Фань Хуэя (2-ой дан), а потом сыграл с Ли Седолем, игроком 9 дана (самый высокий ранг в го), и опять финальный счёт оказался 4-1 не в пользу человека.

Почему победа искусственного интеллекта в игре го так важна для развития машинного обучения? Дело в том, что сама по себе игра очень сложная для компьютера. В го используется доска гобан 19х19 линий, на которую один игрок кладёт чёрные, а другой — белые камни, в попытке захватить как можно большую площадь доски. В отличие от шахмат, где каждая фигура имеет чётко заданную позицию и ходы, в го игроки ограничены только доской. Поэтому во время игры они используют не только знания, но также интуицию. Для компьютера дополнительной сложностью является огромное количество возможных позиций (10^170), а также ему тяжело оценить, кто выигрывает игру.

Поэтому для AlphaGo были разработаны две нейросети. Первую назвали «сетью значения», она оценивает позицию камней на поле числами от -1 до 1, чтобы определить, какие камни лидируют: белые (-1) или чёрные(1). Если позиция сбалансирована, и каждый игрок может победить, то значение будет близко к 0. Нейросеть сканирует доску и оценивает позицию камней, после чего начинает понимать насколько выгодно расположены белые и чёрные камни. Вторую нейросеть назвали «сетью политик». На основе экспертных данных о ходах в го она составляет карту, определяя какие именно ходы в этой позиции будут наиболее удачными.

Таким образом, «сеть значения» позволяет AlphaGo понимать позицию камней на доске и определять, кто выигрывает, а «сеть политик» упрощает алгоритму поиска подбор возможных вариантов хода, так как ограничивает его в зависимости от позиции камней.

Перед тем как продолжить, важно разобрать, что же такое «нейросеть»? К сожалению, сегодня не существует единого формального определения «искусственной нейронной сети». Если попробовать изложить его простыми словами, то нейросеть — это ряд математических моделей, которые созданы по принципу работы биологических нейронных сетей. Искусственные нейроны (простые процессоры) соединяются между собой, получают сигнал, обрабатывают его и отправляют дальше, следующему нейрону. Каждый нейрон — это простая математическая функция, но работая вместе, они позволяют решать сложные задачи.

Как тренировались нейросети для AlphaGo?

«Мы начали с данных профессиональных игроков в го. Так как игры в основном записывают, то у нас было очень много пар: позиция плюс ход, которым она была достигнута. Одна игра даёт нам где-то 300 таких пар. Каждый ход в такой игре профессиональный, так как сделан экспертом. Мы использовали «обучение с учителем», чтобы научить нейросеть предугадывать, какой бы ход сделал профессиональный игрок в этой позиции. Так была создана «сеть политик». Дальше мы позволили нейросети играть против себя, причём как с позиции чёрных, так и белых камней. Результат этих игр мы загружали обратно в нейросеть. Это уже «обучение с подкреплением», оно пока не так хорошо исследовано, но мы считаем, что это будущее машинного обучения. Дальше, благодаря игре нейросети против себя самой, мы получили большой объём данных о позиции камней на доске, а также исходе игр. На их основе мы тренировали «сеть значения», которая научилась понимать, при каких позициях выигрывают чёрные камни, а при каких белые. Оценка — это очень важный параметр для создания игровой программы и машинного обучения в целом, ведь вам нужен способ определить прогресс в игре» — рассказывает Тор Грэпель (Thore Graepel), учёный-исследователь в проекте Google DeepMind, который разработал AlphaGo.

Несмотря на то, что AlphaGo обыграл профессиональных игроков в го и легко обыгрывает другие искусственные интеллекты, разработанные для этой игры, не только это стало выдающимся достижением данной системы. Во второй игре с Ли Седолем AlphaGo сделал очень необычный 37 ход на 5 линии, который изначально не казался удачным, но потом позволил компьютеру захватить эту часть доски. Дело в том, что в экспертной информации, которую загружали в AlphaGo, не было подобных ходов, и можно считать, что это было одно из первых проявлений креативности в исполнении компьютера.

Сегодня для машинного обучения Google использует библиотеку открытого программного обеспечения TensorFlow . Это API второго поколения, который работает для исследований, а также для коммерческих продуктов Google, в которых используется машинное обучение, среди них поиск, распознавание речи, Gmail и Photos.

Машинное восприятие

Ещё одним важным направлением для развития искусственного интеллекта является машинное восприятие. Несмотря на то, что за последнее десятилетие компьютеры сильно продвинулись в распознавании звуков, музыки и рукописного текста, им всё ещё тяжело даётся распознавание изображений и видео. Зрительная система человека без проблем распознаёт изображения, в каждом большом полушарии нашего мозга есть первичная зрительная кора (зрительная зона V1), которая содержит 140 млн нейронов с десятками миллиардов соединений между ними. И, тем не менее, мозг человека дополнительно использует экстрастриарную зрительную кору (зоны V2, V3, V4 и V5) для распознавания изображений. Поэтому для нас не составляет большой проблемы увидеть серого кота, который лежит на сером ковре. Но для компьютера это очень сложная задача.

Раньше Google осуществлял каталогизацию фотографий по описаниям, пользователю нужно было добавлять метки к снимкам, чтобы потом их можно было сгруппировать или найти. Сегодня в сервисе Google Photos работает более продвинутое распознавание изображений на основе «свёрточной нейронной сети». Эта архитектура, разработанная учёным Яном Лекуном, обладает одним из лучших алгоритмов по распознаванию изображений. Если не углубляться в детали, то она представляет собой многослойную структуру искусственных нейронов, каждый слой которой принимает на вход только небольшой участок введённого изображения. С помощью проекта Deep Dream сегодня любой желающий может оценить, как именно свёрточная нейронная сеть видит изображения.

Для обучения своей нейронной сети Google использует открытые базы данных с изображениями. Например, в 2012 году в Google научили нейросеть распознавать изображения котов, используя 10 млн кадров с котами из видео на YouTube.

Обработка и понимание естественной речи

Для того чтобы компьютер понимал не просто голосовые команды, но и естественную речь, в Google используют рекуррентные нейронные сети.

Традиционное распознавание речи разбивает звуки на небольшие фрагменты по 10 миллисекунд аудио. Каждый такой фрагмент анализируется на содержание частот, при этом полученный вектор характеристик проходит через акустическую модель, которая выводит распределение вероятностей по всем звукам. Дальше в сочетании с другими характеристиками речи, через модель произношения, система связывает последовательность звуков правильных слов в языке и в модели, определяя, насколько вероятно данное слово в языке, который используется. В конце языковая модель анализирует полученные слова и фразу целиком, пробуя оценить, возможна ли такая последовательность слов в этом языке. Но по некоторым словам в фонетической записи сложно определить, где заканчивается одна буква и начинается другая, а это очень важно для правильного распознавания.

Теперь в Google используют акустическую модель на основе рекуррентной нейронной сети с архитектурой «долгой кратковременной памяти». Простыми словами, эта нейросеть лучше других умеет запоминать информацию, что позволило обучить её распознаванию фонем во фразе, а это значительно улучшило качество системы распознавания. Поэтому сегодня распознавание голоса на Android работает практически в режиме реального времени.

Искусственный интеллект: помощник или угроза?

Этическая сторона использования искусственного интеллекта всегда находится на повестке дня, признают в Google. Тем не менее, в компании пока не считают, что мы достаточно близки к созданию компьютеров, у которых есть самосознание, чтобы предметно обсуждать этот вопрос. «Компьютеры учатся медленно» — утверждает Грег Коррадо. Пока Google может построить искусственный интеллект, который хорошо справляется с одной задачей, например с игрой го, как AlphaGo. Но для полноценного искусственного интеллекта понадобятся многократно большие вычислительные мощности. Сегодня же мы видим, что производительность процессоров замедляется, мы практически подошли к пределу «Закона Мура», и хотя это отчасти компенсируется повышением производительности видеокарт и появлению специализированных процессоров, пока этого всё равно недостаточно. Кроме этого, ещё одной преградой является отсутствие достаточного количества экспертной информации, которую можно было бы использовать для машинного обучения. Все эти, и не только, проблемы человечество может решить в течение 20, 50 или 100 лет, а может не решить никогда, никто не может дать точный прогноз. Соответственно, искусственный интеллект, который мы видим в фильмах, возможно, будет сильно отличаться от того, что мы в итоге получим.

Помощник на все руки и будущее поиска Google

Google пока ставит перед собой более реалистичную цель — создать виртуальных ассистентов на основе искусственного интеллекта. Сегодня уже существуют такие виртуальные помощники как Siri или Google Now, но они очень ограничены и оторваны от реальности, в которой находится пользователь. Что же хочет сделать Google? В компании считают, что виртуальный ассистент должен понимать окружающий мир, положение пользователя в этом мире, а также опираться на актуальный контекст в общении.

«Представьте, что у вас есть невероятно умный ассистент, и вы говорите ему: изучи эту область и расскажи мне, что ты думаешь. Вот, что мы пытаемся создать. В моём случае я бы хотел сказать ассистенту: покажи мне самые интересные и релевантные вещи, которых я ещё не знаю» — рассказывает Эрик Шмидт (Eric Schmidt), глава совета директоров компании Alphabet, которой принадлежит Google.

Таким образом, в Google видят искусственный интеллект в качестве нового инструмента, который сможет расширить возможности человека, путём предоставления ему новых знаний. Хорошим примером тут может послужить AlphaGo, который игроки в го воспринимают в качестве возможности повысить свой уровень. Ведь если тренироваться против искусственного интеллекта, который уже превышает максимальный ранг в игре, то это может вывести её на новый уровень.

Если вам всегда было интересно, что творится в нейронах у нейронных сетей, то Google наконец-то сможет вам это объяснить. Компания выпустила подборку экспериментальных сервисов, которые показывают, на что способен современный искусственный интеллект.

Наиболее интересный из них - Quick, Draw! - предлагает сыграть в некое подобие «Крокодила». Ваша задача - за 20 секунд успеть нарисовать заданный объект, например морковь, велосипед, мяч, лицо и так далее. За это же время программа должна распознать, что именно вы попытались изобразить. Пока вы выводите курсором корявые линии, нейросеть накидывает варианты, до тех пор, пока не опознает правильный.

При этом, как и положено нейросети, она обучается, опираясь на рисунки других пользователей. И чем больше рисунков ИИ видит, тем быстрее у него получается найти верный ответ. Например, вот в этих каракулях нейросеть за несколько секунд признала крокодила. А вы бы смогли?

Ещё один забавный сервис называется Giorgio Cam . Он умеет идентифицировать предметы, которые видит в камере. Здесь результаты не столь впечатляющие, и зачастую ИИ ошибается. Впрочем, отсутствие точности компенсируется подачей. Процесс определения предмета сопровождается задорной электронной музыкой, а варианты ответа нейросеть ритмично укладывает на бит. Выглядит это всё довольно криповато, но завораживающе.

В целом ИИ пока что довольно примитивен и, очевидно, не способен придумать эффективный план по захвату человечества. Но это пока.

Посмотреть все развлекательные эксперименты Google на поприще создания искусственного интеллекта вы сможете .

Искусственный интеллект уже давно прочно вошел в нашу жизнь. Чаще всего мы даже не задумываемся над этим вопросом, когда привычно пользуемся голосовым помощником в смартфоне или автоматическим распознаванием изображений в программе. Даже поиск Google не обходится без машинного обучения, области искусственного интеллекта.

Уже около двух лет работает технология под названием RankBrain, которая служит для умной сортировки результатов поиска. Около 15% ежедневных запросов являются новыми для Google, то есть до этого они не формулировались ни одним пользователем.

«Наш искусственный интеллект обходится без команд со стороны человека»

Профессор Дэвид Сильвер , Главный программист искусственного интеллекта
Google AlphaGo Zero

Алгоритмы RankBrain ищут имеющиеся формы в неизвестных поисковых запросах и увязывают их с семантически схожими понятиями. В итоге поисковая система должна самостоятельно обучаться и иметь возможность давать соответствующие ответы на вопросы, которые ранее не задавались.

Google использует в своих центрах обработки данных специально разработанные для этого тензорные процессоры - TPU.

Тензорные процессоры (TPU)

Успехи искусственного интеллекта Google выглядят впечатляюще. Одна из причин состоит в том, что компания Google разработала специальные аппаратные средства, а это ускоряет нейронные сети намного эффективнее, чем стандартные центральные и графические процессоры. Поразительно, но тензорные процессоры отчасти используют обычные компоненты ПК. Они находятся на одной сменной плате SATA и связываются через PCI Express с другими тензорными процессорами.

Структура тензорного процессора

Быстрое сложение и умножение - сильная сторона тензорного процессора. В ответственном за это модуле с матрицей в качестве центрального компонента производятся вычисления нейронных сетей. Она занимает около четверти площади процессора. Остальное место используется для быстрой подачи вводных данных. Они поступают через PCI Express и оперативную память DDR3. Результаты вычислений возвращаются на сервер через PCI Express и интерфейс хоста.


Сверхчеловеческий интеллект

Свое название процессоры получили от библиотеки программного обеспечения TensorFlow. Основное предназначение TPU состоит в ускорении алгоритмов искусственного интеллекта, которые делают ставку на библиотеки свободного программного обеспечения.

Изначально TPU обрели популярность в качестве аппаратной платформы для AlphaGo -искусственного интеллекта, который победил лучших в мире игроков в азиатскую игру го. В отличие от шахмат, разработка программного обеспечения для го на профессиональном уровне на протяжении многих лет считалась невозможной.

Последующая разработка AlphaGo Zero смогла самостоятельно обучиться игре на основе заданных ей правил. Через три дня она достигла профессионального уровня, через три недели - догнала предшествующую версию AlphaGo, обучение которой стоило громадных усилий и потребовало проведения миллионов профессиональных партий. Выяснилось, что искусственный интеллект ранее ограничивал изучение ходов со стороны человека. Еще через шесть недель AlphaGo Zero уже невозможно было обыграть.

Ускоритель для нейронных сетей

По сравнению с обычными процессорами тензорные специализируются на использовании искусственных нейронных сетей. Они состоят из множества связанных в сеть математических функций, которые имитируют человеческий мозг с его нервными клетками и их связями. Подобно нашему мозгу, нейронная сеть требует соответствующего ввода. Происходит обучение, к примеру, распознаванию речи, изображений - или правилам игры «Го».

Искусственная нейронная сеть включает несколько уровней нейронов. Каждый нейрон использует взвешенную сумму выходных значений связанных нейронов в предыдущем уровне. Правильная сравнительная оценка - ключ к успеху в Machine Learning, но ее сначала надо сделать, что на практике часто означает множественные операции с плавающей точкой.

В этой дисциплине лучшим выбором на самом деле являются графические процессоры. Чтобы потом отсортировать результаты поиска или предугадать ходы, нейронной сети больше не нужна высокая точность вычислений с плавающей запятой. Этот процесс требует выполнения очень большого количества операций умножения и сложения целых чисел.

Тензорные процессоры в вычислительном центре Google

Google с 2016 года использует TPU в своих вычислительных центрах. На плате обычно располагают несколько процессоров одним кластером. В основном они используются блоками по четыре штуки.

Тензорный процессор Google состоит в основном из вычислительного блока, матрицы 256×256 единиц. Он работает с восьмибитными целыми числами, достигает вычислительной мощности, составляющей 92 триллиона операций в секунду, и хранит результаты в памяти.

На диаграмме показано, что матрица занимает лишь около четверти площади процессора. Остальные компоненты отвечают за постоянное обеспечение ядер новыми данными. Команды тензорные процессоры сами себе не подают - они поступают с подключенного сервера через PCI Express. Этим же путем передаются в ответ и ко­нечные результаты.

Сравнительные оценки, необходимые для вычислений нейронной сети, поставляет модуль памяти First-In/First-Out. Так как там мало что меняется для конкретного приложения, достаточно подключения через оперативную память DDR3. Промежуточные результаты помещаются в буферный накопитель объемом 24 Мбайт и снова поступают в вычислительный блок.

Энергопотребление в сравнении

Сравнение производительности процессоров на потребленный ватт электроэнергии демонстрирует большую эффективность тензорных процессоров.


Гонки с центральным и графическим процессорами

Тензорные процессоры вычисляют со скоростью 225 000 прогнозов для нейронной сети в секунду. CPU и GPU не выдерживают конкуренции.

В 45 раз быстрее обычного процессора

Хотя набор команд CISC (англ. Complex Instruction Set Computer - «компьютер с полным набором команд») тензорного процессора и может отработать сложные команды, их существует всего около десятка. И для большинства необходимых операций требуется только пять команд, в том числе команды чтения, выполнения умножения матрицы или вычисления функции активации.

За счет оптимизации вычислений искусственного интеллекта тензорные процессоры оказываются значительно быстрее обычных процессоров (в 45 раз) или графических процессоров (в 17 раз). В то же время они работают с большей энергоэффективностью.

И Google при этом находится лишь в начале пути: с помощью простых мер производительность тензорных процессоров можно увеличивать и дальше. Одна только установка оперативной памяти GDDR5 может утроить нынешнюю вычислительную мощность.

An intelligent computer is only as well-rounded as the people who teach it.

Robert Ito

For the past three summers, around two dozen would-be computer scientists have come to Stanford University to learn about artificial intelligence from some of the field’s brightest. The attendees, culled from hundreds of applicants, take day trips to nearby tech companies, interact with social robots and hexacopters, and learn about computational linguistics (what machines do when words have multiple meanings, say) and the importance of time management (very). They play Frisbee. But if your mental picture of AI is a bunch of guys creating wilier enemies for their favorite videogames, well, this isn’t that. All the students here at the Stanford Artificial Intelligence Laboratory’s Outreach Summer (SAILORS) program are girls who have just completed ninth grade, and their studies focus on finding ways to improve lives, not enhance their game play: How do we use AI to keep jumbo jets from careening into one another? To ensure that doctors wash their hands before hitting the OR? “Our goal was to rethink AI education in a way that encourages diversity and students from all walks of life,” says Fei-Fei Li, director of Stanford’s AI lab and a founder of the SAILORS program. “When you have a diverse range of future technologists, they really care that technology is being used for the good of humanity.”

“When you have a diverse range of future technologists, they really care that technology is being used for the good of humanity.”

Google & Stanford

SAILORS was created in 2015 by Li and former student Olga Russakovsky (now an assistant professor at Princeton University) to help bring greater gender equality to the tech industry. The cause is both noble and urgent. According to a recent survey, the number of women seeking computer science degrees is dropping; in the AI sector, women hold less than 20 percent of executive positions. It’s an enormous field to be left out of, considering that, every day, more and more people use AI to make their lives easier and more efficient: AI is how photo apps recognize your face among everyone else"s, not to mention the beach where you took the picture. It"s how your devices understand you when you ask what the weather will be tomorrow. Then there are the lesser-known applications, like diagnosing diabetic retinopathy (which often leads to blindness) or sending a drone on a search-and-rescue mission to the most remote reaches of the world.

With AI becoming ever more ubiquitous, the need for gender balance in the field grows beyond just the rightness of the cause-diversity is a crucial piece of AI due to the nature of machine learning. A goal of AI is to prod machines to complete tasks that humans do naturally: recognize speech, make decisions, tell the difference between a burrito and an enchilada. To do this, machines are fed vast amounts of information-often millions of words or conversations or images-just as all of us absorb information, every waking moment, from birth (in essence, this is machine learning). The more cars a machine sees, the more adept it is at identifying them. But if those data sets are limited or biased (if researchers don’t include, say, images of Trabants), or if the folks in AI don’t see or account for those limits or biases (maybe they’re not connoisseurs of obscure East German automobiles), the machines and the output will be flawed. It’s already happening. In one case, image recognition software identified photographs of Asian people as blinking.

“It’s not just about having transparency in data. We actually need to make the numbers move in the right direction.”

Project Include

How do humans create more inclusive labs and workspaces? A number of projects and individuals are taking on that challenge. This year, Li-who is also chief scientist of AI and machine learning at Google Cloud-and others helped launch AI4ALL . The national nonprofit is aimed at bringing greater diversity to AI and has engaged experts in genomics, robotics, and sustainability as mentors. It’s building on the work of SAILORS but also targeting people of color and low-income students across the country through partnerships with Princeton, UC Berkeley, and Carnegie Mellon, in addition to Stanford. “We had a lot of colleagues and industry leaders coming up to us and saying, ‘SAILORS is great, but it’s just Stanford serving a few dozen students per year, mostly from the Bay Area,’ ” Li says. “So AI4ALL is about diversity and inclusion. It’s not only gender.”

AI and ML

What"s the difference?

The terms artificial intelligence (AI) and machine learning (ML) are often used interchangeably, but they’re not the same thing. AI describes machines’ ability to seemingly mimic human ways of thinking, learning as they go as opposed to following specific commands. ML is one of the most efficient-and popular-techniques that computers employ to gain that ability. In ML, machines sift through examples to recognize patterns.

Other similar initiatives include Code Next , Google’s Oakland-based effort to encourage Latino and African American students to explore careers in tech; DIY Girls , an educational and mentoring STEAM (science, technology, engineering, art, and math) program for under-resourced communities in Los Angeles; and Project Include , which helps new and midstage startups hire more women and people of color. Tracy Chou, formerly of Pinterest, founded Project Include last year with seven other prominent women in the tech industry. In 2013, Chou famously urged tech companies to come clean about how many women they employed. As the numbers trickled in, they substantiated what everyone in Silicon Valley knew: The tech world, from the biggest corporation to the smallest startup, is overwhelmingly white and male. Project Include, says Chou, was the logical next step. “After a couple of years of these data reports coming out and not a lot of change happening, there started to be a shift in the conversation,” she says. “Now it’s not just about having transparency in data. We actually need to make the numbers move in the right direction.”

That direction includes making work in the field of AI more accessible to the masses. There are relatively few people employed in AI, and already we’re seeing robots that care for people and personal assistants that anticipate our needs. With humans controlling the data and criteria and machines doing the work, better and greater human input means better and greater results.

In many ways , the democratization of AI is already on its way. Take this example: In Japan, a farmer’s son used AI to sort his family’s harvest of cucumbers by various characteristics. It’s the kind of story that appeals to Li, who came to the US from China at age 16 knowing little about her adopted country and even less about New Jersey, where she ended up. After working a variety of odd jobs, from cleaning houses to walking dogs to cashiering at a Chinese restaurant, Li found herself at Princeton, and later at graduate school at Caltech.

Li comes to her work as a triple outsider: an immigrant, a woman, and a person of color in a world dominated by white men. What might have been obstacles for anyone else have become prods for Li. She spends much of her time studying computer vision, a component of machine learning she calls “the killer app of AI.” Computer vision analyzes and identifies visual data and may someday help create more responsive robotic limbs, say, or solve the knottiest of mathematical proofs. But as with all AI, the key to this technology is teaching machines to unpack a wealth of information from different places and perspectives. To be, in essence, visual citizens of the world-not unlike Li.

Fostering a diverse group of creators to shape that world is essential to the sorts of story and technical issues that content strategist Diana Williams encounters every day at ILMxLAB, the top-secret Lucasfilm dream center where developers craft immersive, interactive entertainment-a VR encounter with Darth Vader, perhaps-inspired by the vast Star Wars universe. Williams is deeply involved in pro-tech organizations like Black Girls Code and remembers the dearth of women of color at her college in the ’80s. “I was always the only one in my math classes, the only one in my business classes,” she says. “That gets tiring, and it gets scary.” Her solution to pointing more women toward tech: “Start them young and get them strong in their confidence, so that when they walk into the room and they’re the only ones there, they don’t turn around.”

Maya Gupta, a machine-learning researcher at Google, is working to improve AI, albeit from a different angle. At Stanford, she helped a Norwegian company detect cracks in its underwater gas pipelines. “You can’t go in there very well, so we had to use partial information to try to guess,” she says. Teaching machines to make nuanced guesses is familiar terrain to Gupta. If you’re on YouTube listening to tenor saxophonist Kamasi Washington’s “Truth” and the music effortlessly segues into Alice Coltrane’s gorgeous “Turiya and Ramakrishna,” like the work of the smartest DJ you never knew, thank Gupta, whose team helps computers fine-tune their recommendations. “It’s all about predicting, right?” she says. “You’re trying to guess what’s going on with limited data.”

Today she’s leading a research and development team at Google to, among other things, create greater accuracy in machine learning. “Let’s say I want to be equally accurate at identifying a Boston accent and a Texas accent, but I have a speech recognizer that’s a little better at the Texas one,” she says. “Should I penalize the people with a Texas accent by making the recognition just as bad as it is for Boston, to be fair? And what if it’s simply harder to recognize people speaking with a Boston accent?”

Gupta and her team are also refining systems that would be infinitely more transparent than their carbon-based designers. With machines, the hope goes, we can eliminate many of the biases or subconscious processes that plague human thought-or at least more easily recognize them when they emerge. Machines don’t lose focus when they’re tired, or irritable, or hungry. A study showed that judges are less apt to grant parole right before lunch, when they’re thinking of sandwiches rather than sidebars. “It’s hard to measure what’s really going on in the minds of humans,” Gupta says. “We want our machine-learning systems to be explainable, and frankly many of them are already more explainable than humans are.”

“We want our machine learning systems to be explainable, and frankly many of them are already more explainable than humans are.”

As AI becomes increasingly useful-not to mention easier to use-the push is on to place it into as many hands as possible. Christine Robson, an IBM researcher before coming to Google, is an enthusiastic champion of open source software like TensorFlow, a machine-learning system that can be used for a host of tasks, from translating languages to spotting illnesses to creating original art.

For Robson, inclusivity in AI means making its tools accessible to more than just self-professed math nerds like herself. “I’m excited about the availability of machine learning to the world,” she says. “We talk a lot about democratizing machine learning, but I am a big believer in this. Making these tools really easy to use, and making these techniques possible for everybody to apply, is just so critical.”

Sci-fi literature and film have long proffered examples of AI gone awry (Mary Shelley’s Frankenstein turns 200 next year). Today, many in the industry-including Li, Robson, and Chou-are concerned less about what AI might do to us and more about what we humans might do to AI. An example: Programmers give virtual assistants a female voice because, well, men and women alike tend to prefer one. “But it perpetuates this idea that assistants are female, so when we engage with these systems, it reinforces that social bias,” says Chou. Many of the field’s best minds worry about what’s going into real-life AI systems-and thus what’s going to emerge. That’s where the push for greater diversity in AI comes in. Little of this will be easy. But its proponents are smart, resourceful, and committed to the cause.

“Making these AI tools really easy to use, and making these techniques possible for everyone to apply, is just so critical.”

We have to make sure that everyone feels welcome, Gupta says. She recalls the wall of photographs of retired electrical-engineering professors at her alma mater Rice that ‘’did not look like me.” We need to convince girls that AI isn"t magic, adds Robson. “It"s math."

At SAILORS, students are learning how to use natural language processing to search social media and aid in disaster relief. “It would help rescuers discover people in need in real time, using their Twitter messages,” Li says. The effects of the classes and projects last well past the unforgettable summers. Some of the students have started their own robotics clubs at school, published pieces in scientific journals, and held workshops at middle schools to spread the gospel of AI to even younger girls. For these students, whose backgrounds and experiences are as diverse as the myriad projects they tackled at camp, AI isn’t the latest cool gadget, but a powerful force for good. In the lead-up to the first SAILORS gathering in 2015, the program shared messages from incoming campers, including this ambitious wish: “I hope to begin my AI journey now so I can make an impact on the world in the future.”

Robert Ito is a writer based in Los Angeles. He is a frequent contributor to the New York Times , Salon , and Los Angeles magazine.

Машинное обучение Google блокирует спам с эффективностью 99,9%

27 февраля

В своём блоге компания Google сообщила об использовании машинного обучения на базе TensorFlow, которое блокирует попадание спама на Gmail.

Эта технология способна блокировать 99,9% спама, что в натуральном выражении означает 100 миллионов дополнительно отсеянных спам-сообщений каждый день.

«Где мы нашли эти 100 миллионов дополнительных спам-сообщений? Сейчас мы блокируем категории спама, которые раньше было очень тяжело выявить. Применение TensorFlow помогло нам блокировать сообщения с изображениями, письма со скрытым встроенным контентом и сообщения от свежесозданных доменов, которые пытаются спрятать малые объёмы спам-сообщений среди законного трафика.

Учитывая, что мы уже блокировали подавляющую часть спама на Gmail, блокировка дополнительных миллионов с такой точностью - это достижение. TensorFlow помогает нам ловить спамеров, которые пробирались через эти менее 0,1%, без случайной блокировки сообщений, важных для пользователей» .

Google Lens научился распознавать миллиарды объектов

3 января

Компания Google сообщила, что её инструмент для фотографий с использованием искусственного интеллекта, Lens, теперь умеет идентифицировать более миллиарда объектов.

Это заметное увеличение возможностей по сравнению с первой версией утилиты, которая изначально умела определять около 250 тысяч объектов. Инструмент обучался в системе Google DeepMind.


При этом миллиард элементов был получен из тех, что представлены в Google Shopping. Это значит, что среди них нельзя найти вещи, которых нет в продаже. Даже игровые консоли из 90-х или первые редакции старых книг найти через Lens уже не получится. Однако среди современных товаров найти позицию будет просто.


Google использует ИИ для предсказания задержек авиарейсов

2 февраля 2018 года

Информация о задержках авиарейсов весьма полезна, однако оглашение о задержках часто зависит от авиакомпании, и они не всегда заинтересованы в быстром обновлении сведений. Теперь в этом поможет Google.

Компания обновила свой сервис Flights, в котором не только стала сообщать о возможной задержке рейса, но и оценивать вероятность. Для этого система машинного обучения использует исторические данные для прогноза задержек и подсвечивает рейсы, если вероятность задержки составляет более 80%. При этом Google отмечает, что вам всё равно не стоит опаздывать на самолёт, ведь даже вероятность 99% не означает, что самолёт не улетит по графику. Зато такой прогноз может подсказать, сколько лишнего времени вам придётся провести в аэропорту.

Также обновлённый сервис Google поможет вам сэкономить на перелёте. Пока он работает для 3 авиакомпаний: American, Delta и United. Благодаря новым возможностям можно оценить стоимость дополнительных сервисов в лоу-кост тарифах, таких как увеличенная ручная кладь или перевес багаж, а также сравнить эти траты со стоимостью обычных билетов.

А вы видите ламантина на снимке?

15 декабря 2017 года

Компания Google использует искусственный интеллект не только для улучшения своих сервисов, но и для помощи экологам и учёным, в очередной раз подтверждая своё звание «корпорации добра».

Нейронная сеть TensorFlow с открытым исходным кодом стала сердцем проекта, который помогает сохранить популяцию морских коров или ламантинов.

Несмотря на их внушительные размеры, биологам бывает довольно трудно отследить их перемещения. Чтобы сделать это исследователи проводили аэрофотосъёмку океана с дронов, однако найти даже таких крупных животных — весьма сложная задача. Для человека.

Вот одна из таких фотографий, сделанных с дрона:

Вы видите на ней ламантина?

Прокрутите вниз для ответа.


Используя открытое ПО Google TensorFlow исследователь Аманда Ходгсон из университета Мердок со своей командой создала детектор, который находит ламантинов на снимках. Ранние версии детектора позволяли найти 80% этих животных на аэрофотоснимке, сделанном дроном. В будущем же, как надеются исследователи, AI улучшит свою работу.

Также учёные полагают, что искусственный интеллект может быть приспособлен и для поиска других крупных млекопитающих, таких как горбатые киты и даже дельфины.

Искусственный интеллект Google обошёл Bing и Siri в тесте IQ

2 ноября 2017 года

Трое исследователей: Фен Лиу, Йон Ши и Йин Лиу, разработали тест IQ, нацеленный на проверку различных систем AI .

По их результатам AI от Google оказался самым сообразительным, набрав 47,8 баллов. Для сравнения, показатель 18-летнего человека — 96 баллов, а шестилетнего — 55,5.

Главные конкуренты Google отстали от него весьма заметно. Так, Bing и Baidu набрали по 31,98 и 32,92 очка соответственно. Худшим был Apple Siri, его результат составил 23,9 баллов.

Исследователи отметили, что пока лучший искусственный интеллект не дотягивает даже до шестилетнего ребёнка, но они быстро сокращают разрыв. В 2014 году искусственные интеллекты Google и Baidu набирали по 26,5 и 23,5 очков соответственно. Это означает рост уровня интеллекта на 80% всего за два года (для Google), так что беспокойства Илона Маска о порабощении нас своими же компьютерами, возможно, не так уж и не обоснованы.

Исследование также разделяет искусственные интеллекты по градациям и типам в зависимости от направления использования. С полным исследованием можно ознакомиться по этой ссылке .

Google рассказала о втором поколении TPU

26 мая 2017 года

В ходе конференции Google I/O, организаторы продемонстрировали второе поколение тензорного процессора (TPU), который используется в искусственном интеллекте компании.

Новая модель процессора может быть использована как для обучения, так и для поиска взаимосвязей. А система из четырёх новых Cloud TPU обещает производительность системы машинного обучения на уровне 180 терафлопс. По словам Google, данный чип значительно производительнее решений на базе GPU , в связи с чем компания планирует предложить платформу Cloud коммерческим разработчикам.

Что касается производительности, то Google пояснила, что обучение большой модели языкового перевода занимает целый день на 32 топовых GPU . Та же работа длится 6 часов на одной восьмой кластера, или на 8 TPU.

Первое поколение TPU компания Google представила в 2015 году. Эти процессоры используются в широком спектре облачных сервисов компании, включая поиск, перевод и Google Photos.

Google TPU обрабатывает данные в 15 раз быстрее обычных компонентов

29 апреля 2017 года

Два года назад компания Google создала собственную интегральную схему под названием Tensor Processing Unit, которая предназначена для вычислительной фазы задач машинного обучения.

Изначально компания сообщала, что TPU должен улучшить производительность на ватт в характерных задачах на величину до 10 раз, по сравнению с традиционными CPU и GPU . И теперь, получив опыт эксплуатации, фирма провела исследование влияния производительности чипов этого типа.

Оказалось, что 10-кратный прирост в энергоэффективность был слишком скромным. На самом деле производительность возросла от 30 до 80 раз по отношению к обычным решениям и в зависимости от сценария. Если говорить о прямой производительности, то по словам Google TPU в 15—30 раз быстрее стандартного аппаратного обеспечения.

На этом процессоре работает специальное программное обеспечение, основанное на фреймворке машинного обучения TensorFlow, и некоторая доля этого ускорения связана именно с этим фреймворком. Авторы исследования отметили, что у программистов ещё есть запас по оптимизации.

Компания Google увидела необходимость TPU ещё 6 лет назад. Глубинное обучение компания использует в разных проектах, включая поиск изображений, фотографий и перевод. По своей природе, машинное обучение довольно требовательный к ресурсом процесс. К примеру, инженеры Google отметили, что если бы люди использовали распознавание речи по 3 минуты в день, и она выполнялась бы без TPU, то компании пришлось бы удвоить количество центров обработки данных.

Google обеспечит голливудское увеличение изображения

22 февраля 2017 года

Концепция улучшения пикселизованного изображения нам известна из многих голливудских фильмов, но, как и почти всегда, реальные технологии далеки от кино. Однако инженеры в Google Brain придумали способ приблизить фантастику к реальности.

Новая технология использует пару нейронных сетей, которые перерабатывают изображения 8x8 пикселей, чтобы воссоздать лицо человека, спрятанное за ним. Конечно, нейронные сети не увеличивают изображение без пикселизации, а создают новое, которое могло бы выглядеть как оригинал.

Как сказано выше, в процессе воссоздания лица участвуют две нейронные сети. Первая картирует изображение разрешением 8х8 точек в аналогично выглядящее изображение, но с большим разрешением. Это изображение используется в качестве скелета для второй сети, которая добавляет к картинке больше деталей на основе уже существующих изображений со сходными пиксельными картами. Затем полученные изображения двух сетей комбинируются, создавая конечную картинку.

Конечно, воссозданная картинка далека от реальности, так что эта технология бесполезна для спецслужб, однако пригодится при обработке снимков при необходимости экстремального увеличения.

Технология Google RAISR снижает трафик картинок вчетверо

28 января 2017 года

Практически все тарифы мобильных операторов предполагают лимитированное использование трафика, и компания Google задалась целью заметно снизить потребление, разработав технологию сжатия изображений RAISR — Rapid and Accurate Image Super-Resolution (быстрое и точное изображение супер разрешения).

По сути, эта технология не является традиционным методом сжатия, она больше похожа на вид искусства, которым занимается система машинного обучения. Так, RAISR увеличивает эскизы изображений, полученные в меньшем разрешении, используя специальные алгоритмы машинного обучения. В конечном счете, искусственный интеллект восстанавливает отсутствующие детали, приводя изображение к оригинальному виду. В результате трафик при передаче изображений можно снизить на 75%, по сравнению с оригиналом, при сохранении большинства обозримых деталей.

Пока Google предлагает эту технологию лишь для сервиса Google+ и лишь для изображений, размещённых на сервисе. «В ближайшие недели» компания расширит сферу действия технологии и на другие свои сервисы.

Неизвестно, станет ли Google использовать эту технологию только для своих служб, или распространит её, как Brotli, однако нам, несомненно, хотелось бы увидеть её в работе таких загруженных изображениями сайтов, как социальные сети и онлайн магазины.

Искусственный интеллект Google придумал свой язык

29 ноября 2016 года

Паниковать не стоит, но искусственный интеллект Google случайно (или не очень) создал свой собственный секретный язык. И этот язык был придуман нейронной машиной перевода (Neural Machine Translation — NMT) самостоятельно, без участия человека.

Новую нейронную машину перевода компания Google представила в сентябре, а внедрена она была совсем недавно . Новая система позволяет переводить предложения целиком, не деля его на части и лучше передавая смысл. Система NMT является самообучаемой, что значит, что она самосовершенствуется по мере работы.

Впервые система была использована для улучшения перевода с английского на корейский и обратно, а затем — с английского на японский и обратно. Инженерам было интересно посмотреть, сможет ли машина переводить текст с корейского на японский без английского языка между ними. И ответ оказался «да», машина перевела текст напрямую.

Как Google AI добился этого немного не ясно. Оказалось, что NMT создал свой собственный внутренний язык «interlingua». Он оперирует концепциями и структурами предложений, а не эквивалентными словами. В результате, NMT создаёт более точные переводы, чем раньше. Создатели нейронного машинного переводчика не уверены в принципах работы нейронной сети и не могут сказать, каким образом осуществлено обучение прямому переводу между языками. Иными словами искусственный интеллект Google создал свой собственный язык, который мы, люди, не можем полностью понять.

Google Translate стал умнее

26 ноября 2016 года

Компания Google уверяет, что ей удалось сделать машинный перевод более естественным, предложив его для смартфонов и веб приложения.

Поисковый гигант отметил, что теперь используется «нейронный машинный перевод», что позволяет переводить предложение целиком, вместо разделения его на части и дальнейшего перевода. В результате полученный текст оказывается более естественным, имеет лучший синтаксис и грамматику.

«За одно изменение было достигнуто больше улучшений, чем за все 10 лет» , — заявил лидер продукта Google Translate Барак Туровски.

Кроме английского новая система перевода доступна ещё для восьми из 103 языков, поддерживаемых системой. Так, «нейронный» перевод поддерживает французский, немецкий, испанский, португальский, китайский, японский, корейский и турецкий языки. В компании отметили, что эти языки составляют 35% всех переводов, выполняемых сервисом. По информации Туровски, данный метод позволяет снизить ошибки на величину от 55% до 85%.

Google научился отвечать на сложные вопросы

19 ноября 2015 года

Наряду с развитием интеллектуальных систем у Microsoft и Apple, помощник Google также демонстрирует прорыв. Так, компания в своём блоге сообщила, что теперь приложение Google стало намного сообразительнее, поскольку теперь оно понимает и отвечает на сложные вопросы, с которыми не могло справиться ранее.

Отныне Google может понимать смысл, стоящий за вопросом, а также понимать цель задаваемого вопроса.

К примеру, виртуальный помощник теперь понимает:

  • Сравнительную степень (самый высокий, крупнейший и т.п.);
  • Упорядоченные запросы (Кто является самым высоким игроком Maverick?);
  • Временные связи (Какую песню записала Тэйлор Свифт в 2014 году?);
  • Сложные комбинации (Каково было население США, когда родился Берни Сандерс?).

Если у вас есть соответствующее приложение Google на смартфоне или планшете, то вы уже можете позадавать ему подобные сложные вопросы. Конечно, поиск информации на смартфоне не слишком удобен, но если теперь с ним можно будет разговаривать как с человеком, то почему бы им не пользоваться чаще.

Google открывает исходный код системы машинного обучения

12 ноября 2015 года

Чтобы привлечь как можно большее число разработчиков и ускорить развитие технологии, компания Google решила открыть исходный код движка искусственного интеллекта, известного под названием TensorFlow.

Над этим проектом компания уже работает некоторое время, и система смогла принести плоды, например, в Google Photos, позволяя выявлять на снимках людей и места. Также технология работает в почтовом клиенте Inbox, который сканирует почту для облегчения подготовки ответов.

Исполнительный директор Google Сундар Пичаи написал в своём блоге: «Всего пару лет назад вы не могли дать команду Google app в шуме улицы, или прочитать вывески на русском используя Google Translate, либо же мгновенно находить изображения своего лабрадуделя в Google Photos. Наши приложения не были достаточно умны. Но за короткий период времени они стали намного, намного умнее. Теперь, благодаря машинному обучению, вы можете делать все эти вещи довольно легко» .

Директор отметил, что система «TensorFlow — быстрее, умнее и гибче, чем наша старая система, поэтому она может быть адаптирована к новым продуктам намного проще и богаче. Сегодня мы также открыли код TensorFlow. Мы надеемся, что это позволит сообществу машинного обучения, всем — от академических учёных до инженеров, до увлечённых, намного быстрее обмениваться идеями через работающий код, а не просто изучать документы» .

Google улучшил распознавание речи

29 сентября 2015 года

Среди всех больших компаний, использующих голосовые функции, компания Google стоит особняком. В отличие от Apple Siri и Microsoft Cortana, Google не персонифицирует свой голосовой помощник. Кроме того, Google обладает лучшим алгоритмом распознавания, который теперь получил дополнительные улучшения.

В недавнем сообщении в Google Research Blog, представитель команды исследователей речи рассказал о последних изменениях в алгоритме распознавания. Компания уже использует глубокую нейронную сеть, ту самую, с помощью которой получают странные картинки со «сновидениями» искусственного интеллекта, чтобы понять, что же именно вы пытаетесь сейчас сказать своему телефону. Теперь же фирма разработала и начала использовать рекурсивную нейронную сеть. Новый алгоритм моделирования речи позволяет учитывать временные зависимости, которые, по их словам, позволяют лучше анализировать каждый фрагмент аудио, ссылаясь на поступающие звуки.

В результате пользователи получат более быстрое и точное распознавание речи. Компания также уверяет, что новый алгоритм более устойчив к распознаванию в шумном окружении. Новый алгоритм распознавания речи уже запущен для приложений поиска в iOS и Android, а также для голосового набора текста.

Google разрабатывает алгоритм расчёта калорий по фотографии

20 июня 2015 года

Компания Google подала патент на технологию Im2Calories, которая анализирует фотографию пищи и оценивает примерное количество калорий в этой еде.

Технология Im2Calories основывается на серии алгоритмов искусственного интеллекта, а инструмент анализа фотографий, конечно, не слишком точно, оценит примерное количество калорий в еде на сделанном снимке.

Этот проект ещё находится в разработке, а его появление ожидается только через несколько лет. Вполне вероятно, что в будущем Im2Calories будет представлен в виде приложений для Android и iOS.

Ещё одним интересным местом использования алгоритма станут ресурсы Twitter и Instagram, ведь именно там люди чаще всего выкладывают фотоснимки своей еды. Использование средства в собственной сети Google+ маловероятно, поскольку поисковый гигант мало заинтересован в поддержке этой платформы.

Сейчас можно подобрать аналогичные приложения на обе популярные мобильные платформы, но нет сомнений в том, что Google сумеет сделать более качественный продукт, благодаря отличным системам искусственного интеллекта, разрабатываемым компанией.