Изучаем нейронные сети за четыре шага. Пощупать нейросети или конструктор нейронных сетей

Новости 10.07.2019
Новости

В этот раз я решил изучить нейронные сети. Базовые навыки в этом вопросе я смог получить за лето и осень 2015 года. Под базовыми навыками я имею в виду, что могу сам создать простую нейронную сеть с нуля. Примеры можете найти в моих репозиториях на GitHub. В этой статье я дам несколько разъяснений и поделюсь ресурсами, которые могут пригодиться вам для изучения.

Шаг 1. Нейроны и метод прямого распространения

Так что же такое «нейронная сеть»? Давайте подождём с этим и сперва разберёмся с одним нейроном.

Нейрон похож на функцию: он принимает на вход несколько значений и возвращает одно.

Круг ниже обозначает искусственный нейрон. Он получает 5 и возвращает 1. Ввод - это сумма трёх соединённых с нейроном синапсов (три стрелки слева).

В левой части картинки мы видим 2 входных значения (зелёного цвета) и смещение (выделено коричневым цветом).

Входные данные могут быть численными представлениями двух разных свойств. Например, при создании спам-фильтра они могли бы означать наличие более чем одного слова, написанного ЗАГЛАВНЫМИ БУКВАМИ, и наличие слова «виагра».

Входные значения умножаются на свои так называемые «веса», 7 и 3 (выделено синим).

Теперь мы складываем полученные значения со смещением и получаем число, в нашем случае 5 (выделено красным). Это - ввод нашего искусственного нейрона.

Потом нейрон производит какое-то вычисление и выдает выходное значение. Мы получили 1, т.к. округлённое значение сигмоиды в точке 5 равно 1 (более подробно об этой функции поговорим позже).

Если бы это был спам-фильтр, факт вывода 1 означал бы то, что текст был помечен нейроном как спам.

Иллюстрация нейронной сети с Википедии.

Если вы объедините эти нейроны, то получите прямо распространяющуюся нейронную сеть - процесс идёт от ввода к выводу, через нейроны, соединённые синапсами, как на картинке слева.

Шаг 2. Сигмоида

После того, как вы посмотрели уроки от Welch Labs, хорошей идеей было бы ознакомиться с четвертой неделей курса по машинному обучению от Coursera , посвящённой нейронным сетям - она поможет разобраться в принципах их работы. Курс сильно углубляется в математику и основан на Octave, а я предпочитаю Python. Из-за этого я пропустил упражнения и почерпнул все необходимые знания из видео.

Сигмоида просто-напросто отображает ваше значение (по горизонтальной оси) на отрезок от 0 до 1.

Первоочередной задачей для меня стало изучение сигмоиды , так как она фигурировала во многих аспектах нейронных сетей. Что-то о ней я уже знал из третьей недели вышеупомянутого курса , поэтому я пересмотрел видео оттуда.

Но на одних видео далеко не уедешь. Для полного понимания я решил закодить её самостоятельно. Поэтому я начал писать реализацию алгоритма логистической регрессии (который использует сигмоиду).

Это заняло целый день, и вряд ли результат получился удовлетворительным. Но это неважно, ведь я разобрался, как всё работает. Код можно увидеть .

Вам необязательно делать это самим, поскольку тут требуются специальные знания - главное, чтобы вы поняли, как устроена сигмоида.

Шаг 3. Метод обратного распространения ошибки

Понять принцип работы нейронной сети от ввода до вывода не так уж и сложно. Гораздо сложнее понять, как нейронная сеть обучается на наборах данных. Использованный мной принцип называется

Я давно интересовался нейросетями, но только с позиции зрителя – следил за новыми возможностями, которые они дают по сравнению с обычным программированием. Но никогда не лез ни в теорию, ни в практику. И вдруг (после сенсационной новости о AlphaZero) мне захотелось сделать свою нейросеть. Посмотрев несколько уроков по этой теме на YouTube, я немного врубился в теорию и перешёл к практике. В итоге я сделал даже лучше, чем свою нейросеть. Получился конструктор нейросетей и наглядное пособие по ним (то есть можно смотреть, что творится внутри нейросети). Вот как это выглядит:

Как пользоваться конструктором

Для начала скачайте архив отсюда .

Распакуйте в корень диска D:\

Запустите NeuroNet.exe

Можете попробовать «Загрузить» какую-нибудь сеть, посмотреть на неё, нажать «Обучение», увидеть её точность, потыкать стрелки влево, вправо (по бокам), чтобы посмотреть различные варианты входных (левый столбец нейронов) и выходных (правый) данных, нажать «Стоп» и попробовать ввести свои входные данные (разрешены любые значения от 0 до 1, учитывайте это при создании своих сетей и нормализуйте входные и выходные данные).

Теперь как строить свои сети. Первым делом необходимо задать архитектуру сети (количество нейронов в каждом слое через запятую), нажать «Построить» (или сначала «Снести», затем построить, если у Вас на экране уже отображается другая сеть), нажать «Обучающая выборка», «Удалить всё» и ввести свои обучающие примеры, согласно инструкции на экране. Также можно указать на вход и на выход маленькие квадратные картинки (максимум 5х5 пикселей), из которых будут определены нормализованные значения яркости пикселей (не учитывая их цвет), для чего нужно нажать на «in» и «out» соответственно. Нажать «Добавить пример», повторить процедуру нужное количество раз. Нажать «Готово», «Обучение» и как точность станет удовлетворительной (обычно 98%), нажать «Стоп», иконку в виде дискеты (сохранить), дать сети имя и радоваться, что Вы сами создали нейросеть. Дополнительно можете устанавливать скорость обучения ползунком «Точнее/Быстрее», а также визуализировать не каждый 50й шаг, а каждый 10й или 300й, как Вам угодно.

Интеграция созданных сетей в свои проекты

Чтобы использовать свои нейросети в собственных проектах, я создал отдельное приложение doNet.exe , которое нужно запускать с параметрами: « D:\NeuroNet\doNet.exe <название сети> <входные данные через пробел> », дождаться завершения работы приложения, после чего считать выходные данные из D:\NeuroNet\temp.txt

Для примера создано приложение 4-5.exe, использующее сеть «4-5» (об этой и других сетях ниже). В этом приложении подробно расписано как правильно запускать doNet.exe

Разбор сетей, идущих в комплекте

Начнём с классики – «XOR(Полусумматор)». Среди прочих, в частности, эту задачу – сложение по модулю 2 – в 1969 году приводили в качестве примера ограниченности нейросетей (а именно однослойных перцептронов). В общем, имеется два входа (со значениями либо 0, либо 1 у каждого), наша же задача - ответить 1, если значения входов разные, 0 – если одинаковые.

Далее «Количество-единиц». Три входа (0 либо 1 на каждом). Требуется посчитать, сколько было подано единиц. Реализовано как задача классификации – четыре выхода на каждый вариант ответа (0,1,2,3 единицы). На каком выходе максимальное значение, соответственно таков и ответ.

«Умножение» – Два входа (вещественные от 0 до 1), на выход их произведение.

«4-5» – На вход подаются нормализованные значения яркости пикселей картинки 4х4, на выходе имеем нормализованные значения яркости пикселей картинки 5х5.

Сеть задумывалась, как увеличение качества большой картинки на 25%, вышел же интересный фильтр для фото:

UPD: В архив добавлено приложение NeuroNet2.exe (тот же конструктор, но без визуализации (благодаря чему работает в 2 раза быстрее) и ограничений на количество нейронов в слое (до 1024 вместо 30), также в обучающей выборке на вход и выход можно подавать квадратные картинки до 32х32). Также добавлен график обучения. Нейросетями теперь могут пользоваться (и встраивать в свои проекты (даже на сервере)) и те, кто не знает их теории! В полуавтоматическом режиме (после обучения вручную подавать на вход значения и получать результат на экране) их можно использовать даже без знания программирования!

Вот собственно и всё, жду комментариев.

P.S. Если вылезает ошибка, попробуйте зарегистрировать от администратора с помощью regsvr32 файлы comdlg32, которые также есть в архиве.

Пример программы нейронной сети с исходным кодом на с++.

Про нейронные сети хорошо и подробно написано . Попытаемся разобраться как программировать нейронные сети, и как это работает . Одна из задач решаемых нейронными сетями, задача классификации. Программа демонстрирует работу нейронной сети классифицирующей цвет.

В компьютере принята трехкомпонентная модель представления цвета RGB , на каждый из компонентов отводится один байт. полный цвет представлен 24 битами, что дает 16 миллионов оттенков. Человек же может отнести любой из этих оттенков к одному из имеющих название цветов. Итак задача:

Дано InColor - цвет RGB (24 бит)

классифицировать цвет, т.е. отнести его к одному из цветов заданных множеством М ={ Черный, Красный, Зеленый, Желтый, Синий, Фиолетовый, Голубой, Белый } .

OutColor - цвет из множества М

Решение номер 1. (цифровое)

Создаем массив размером 16777216 элементов

Решение номер 2. (аналоговое)

напишем функцию, типа

Int8 GetColor(DWORD Color)
{
double Red = (double(((Color>>16)&0xFF)))/255*100;
double Green = (double(((Color>>8)&0xFF)))/255*100;
double Blue = (double((Color&0xFF)))/255*100;
double Level = Red;
if(Green > Level)
Level = Green;
if(Blue > Level)
Level = Blue;
Level = Level * 0.7;
int8 OutColor = 0;
if(Red > Level)
OutColor |= 1;
if(Green > Level)
OutColor |= 2;
if(Blue > Level)
OutColor |= 4;
return OutColor;
}

Это будет работать если задачу можно описать простыми уравнениями, а вот если функция настолько сложна что описанию. не поддается, здесь то на помощь приходят нейронные сети.

Решение номер 3. (нейронная сеть)

Простейшая нейронная сеть. Однослойный перцептрон.

Все нейронное заключено в класс CNeuroNet

Каждый нейрон имеет 3 входа, куда подаются интенсивности компонент цвета. (R,G, B) в диапазоне (0 - 1). Всего нейронов 8 , по количеству цветов в выходном множестве. В результате работы сети на выходе каждого нейрона формируется сигнал в диапазоне (0 - 1), который означает вероятность того что на входе этот цвет. Выбираем максимальный и получаем ответ.

Нейроны имеют сигмоидную функцию активации ActiveSigm() . Функция ActiveSigmPro() , производная от сигмоидной функции активации используется для обучения нейронной сетиметодом обратного распространения.

В первой строчке выведены интенсивности цветов. ниже таблица весовых коэффициентов (4 шт.). В последнем столбце значение на выходе нейронов. Меняем цвет, выбираем из списка правильный ответ, кнопкой Teach вызываем функцию обучения. AutoTeach вызывает процедуру автоматического обучения, 1000 раз, случайный цвет определяется по формуле из решения номер 2, и вызывается функция обучения.

Один из ТОП-менеджеров Google Сандар Пичаи заявил в 2014 году, что главным приоритетом компании на данном этапе ее развития является машинное обучение. Через два года, после этого заявления, в марте 2016 года программа AlphaGo обыграла лучшего игрока в Го профессионала 9 дана Ли Седоля. Эта программа, разработанная стартапом DeepMind и сегодня принадлежащая Google, работает на алгоритме самообучающихся нейросетей. После разгромной победы искусственного интеллекта над человеческим гением начался бум нейронных систем.

Что из себя представляют нейросети, где они применяются и почему сегодня о них упоминается так часто, мы расскажем в этой статье.

Навигация

Что такое нейронные сети и какие задачи они решают?

Человечество давно бьется над разработками в области искусственного разума. Нейронные сети, одна из таких разработок. Принципы построения таких сетей заключается в «копировании» человеческой нервной системы. Их главная особенность в том, что они способны к самообучению. То есть, могут работать на основании данных полученных ранее.

Но, нейросети это не только имитация деятельности систем человека. Они и по своей структуре напоминают нервную систему. То есть, состоят из отдельных вычислительных элементов. Которые можно сравнить с нейронами человека. Все данные, которые получает такая сеть, последовательно проходят обработку нескольких сегментов нейросети (слоев), которые состоят из нескольких «нейронов».

Так как сети известны параметры каждого «нейрона» и всей сети в целом, она может в следствии полученных ранее данных менять свою работу. То есть «самообучаться».

Сегодня нейросети применяются довольно часто. К примеру, многие крупные интернет-магазины используют их для того, чтобы предлагать своим клиентам более подходящие для них товары. Также широко применяются такие математические модели для распознавания и воспроизведения речи, а также распознавания и обработки изображений.

Бум на беспилотные автомобили также открыли новую сферу применения нейронных сетей. Они используются для прокладки маршрута и работы систем навигации.

На них обратили внимание и производители антивирусного ПО. Такие разработки в области искусственного разума позволяют защитить информацию от киберпреступников и выявить противозаконный контент в Интернете.

Что такое нейронные сети? Электронный мозг

Уже сейчас футурологи «рисуют» удивительную картину будущего, где масштабы применения нейросетей возрастут многократно. Например, появятся роботы, садоводы. Которые благодаря сотням встроенных микрокамер будут получать данные, анализировать их и отделять сорняки от культурных растений. Благодаря «самообучению» такие роботы способны применить к каждому растению индивидуальную обработку.

В разрабатываемом сейчас «интернете вещей» нейронные сети смогут создать голосовые интерфейсы для «общения» различных объектов такой «паутины». Алгоритмы такой математической модели смогут заменить человека в колл-центрах, контролеров на складах, переводчиков, консультантов и представителей других профессий. По мнению многих аналитиков, на это нейронным сетям потребуется всего 3-5 лет.

Уже сегодня нейронные сети позволяют принимать некоторые решения за человека. Пусть пока их назвать слишком интеллектуальными нельзя, но победа в Го программы, основанной на таких алгоритмах, позволяют верить в их успех в будущем.

Почему нейронные сети стали так популярны именно сейчас?

Про искусственный интеллект человечество задумалось очень давно. Об использование для решения этого вопроса нейронных сетей заговорили 70 лет тому назад. Но, лишь сегодня это стало возможным в тех объемах, которые необходимы.

Популярность нейросетей сегодня обусловлено возросшей скоростью работы «нейронов». То есть отдельных вычислительных элементов. Благодаря чему удалось снизить время на стадию «обучения». Требуемые для работы таких сетей десятки миллионов данных благодаря современным процессорам и видеокартам обрабатываются достаточно быстро. Современные технологии ускоренного обучения и вывели их на передовую искусственного интеллекта.

Алгоритмы нейронных систем в мобильных приложениях

В последнее время на рынке мобильных приложений появилось очень много развлекательных проектов, которые используют нейросети. Конечно, главную рекламу им сделало приложение Prisma. Кроме того, стоит отметить и конкурента этого приложения Mlvch, а также популярный видеосервис MSQRD. Который также использует описываемые математические алгоритмы.

PRISMA

Приложение Prisma

Приложение Prisma, российских разработчиков, преобразующее фотографии под картины известных художников, пожалуй, самое известное применение нейронных сетей в современной жизни. В первую очередь, Prisma демонстрирует возможности таких математических алгоритмов при разработке мобильных приложений. Но, такая стилизация изображений может применяться не только в развлекательных целях, но и в дизайне, мультипликации, компьютерной графике и других подобных областях.

Да, создателей Prisma нельзя назвать первопроходцами. Использование нейросетей для обработки изображений применялось и раньше. Например, для создания фильма в стиле Ван Гога применялись схожие алгоритмы, но обработка одного кадра занимала около 3 минут. Современные технологии позволяют это сделать гораздо быстрее. В той же Prisma на обработку одной фотографии уходит чуть больше 1 секунды. И это при том, что фотография загружается на сервер, обрабатывается и отправляется пользователю.

При обработке фотографии определяются отображенные на ней объекты. После чего к снимку применяется стиль выбранного художника. То есть, приложение с помощью искусственных нейронных сетей «дублирует» работу мозга художника. Это удивительно, завораживающе и очень красиво.

Сейчас в «Призме» можно выбирать фильтры имитирующие стили 21 художника - от Эдварда Мунка и Марка Шагала до Ван Гога и Пикассо. По словам разработчиков, в уже скоро алгоритмы приложения помогут выбрать подходящие фильтры в автоматическом режиме.

MLVCH

Приложение Mlvch является главным конкурентом Prisma. Оно работает на подобном алгоритме, но отличается более сложной проработкой. Если в Prisma изображение обрабатывается за 20-30 итераций, то в Mlvch за 100. Что позволяет на выходе получить более детальное изображение. Кроме того, в Mlvch в 2,5 раза больше фильтров, чем в Prisma.

Что касается минусов, то такая сложность обработки фотографий в Mlvch увеличивает время получения готового варианта. Кроме того, на бесплатной основе в день можно обработать только одну фотографию. За все последующие придется платить по 75 рублей. Кроме того, можно купить пакет из 100 фотографий за 2990 рублей.

Где еще применяются нейронные сети?

Конечно, прикладные продукты, использующие нейросети, чаще всего применяют для анализа изображений. Но, с помощью приложения Clarifai можно пойти дальше и распознать изображение на видео. Еще один подобный сервис предлагает российская компания Ntechlab. Она разработала приложение Findface. С помощью которого можно по фотографии пользователя найти его профиль в социальной сети «Вконтакте»

Сервис «Авто.ру», который сегодня принадлежит Яндексу, по фотографии самостоятельно распознает марку и модель изображенного автомобиля. Принцип «компьютерного зрения», применяемый в таком распознавании, также работает на технологии нейросетей.

С помощью приложения Ostagram можно не только накладывать стили, но даже перерисовывать картины. А с помощью Deepomatic, пользователю на основе того, какие картинки он раздавал в интернете, предлагаются товары из интернет-магазинов.

Конечно, анализом картинок с рекламными и развлекательными целями область применения нейросетей не ограничивается. Стартап Ava позволяет следить за своим здоровьем. Приложение анализирует фотографию блюд и продуктов питания и выдает информацию о калориях и различных добавках.

Не так давно с помощью алгоритма нейронных сетей Яндекс записал музыкальный альбом «Нейронная оборона». Проект, который получил название «Автопоэт», генерировал зарифмованные тексты.

Использует описываемые математические алгоритмы и другой ведущий интернет-поисковик Google. В ноябре 2015 года эта компания внедрила в свою почту Gmail специальную функцию, благодаря которой сервис сам генерирует три ответа на входящее письмо. Выбрать самый лучший можно одним кликом мыши.

Также нейронные сети используют при создании беспилотных автомобилей и летающих аппаратов. Сначала этими средствами передвижения управляет человек. Данные собираются в специальную базу, которая используется для «обучения» автопилота. Уже сейчас в Швейцарии действует беспилотный летательный объект, который использует принципы нейросети и применяется для поиска заблудившихся туристов.

Популярные в последнее время боты, которые используются в социальных сетях и месседжерах, также могут использовать описываемые математические алгоритмы. Американский стартап Luka с успехом использует нейросети для обучения своих ботов. А с помощью приложения Eterni.me можно создать аватар и «научить» его быть своим владельцем. Для этого нейросети собирают информацию о владельце аватара и внедряют ее виртуальному объекту. Такой объект после смерти своего прототипа сможет продолжить «жизнь» своего владельца.

Кроме того, такого бота-аватара можно создать для общения с людьми, на которых вам не хочется тратить время. Компания Burner с успехом тестирует такой продукт. Ждем появления специального приложения для создания своего бота.

Также нейронные сети в будущем будут использоваться для постановки медицинского диагноза или «чтения» результатов анализов. Такие компании как Atomwise, Enlitic, Quantified Skin и др. уже работают в этом направлении. А проект Deep Genomics может анализировать геном и предсказывать развитие возможных заболеваний.

Видео. Вопрос науки. Как работают нейронные сети?

Нейронных сетей. В качестве примера, созданы компоненты реализующие две нейросетевые парадигмы: рекуррентную нейронную сеть, в нашем случае – это сеть Хопфилда и многослойную нейронную сеть обучаемую по алгоритму обратного распространения ошибки (back propagation).

Основным назначением библиотеки является интеграция нейронных сетей в информационные системы, для расширения аналитических возможностей систем. Реализация нейронных сетей в виде компонентов, наличие открытого кода позволяет легко встраивать в другие программы. Объектно-ориентированное исполнение придает особую гибкость, достаточно переписать пару методов и вы можете получить компонент, оптимизированный под ваши задачи.

Иерархия классов

Существует три базовых класса TNeuron, TLayer, TNeuralNet. Все остальные являются производными от них. На рис.1 приведена иерархия классов, сплошными линиями показано наследование (стрелкой указан потомок), пунктирными в каких классах они используются.

TNeuron является базовым классом для нейронов, несет всю основную функциональность, имеет индексированное свойство Weights, представляющее собой весовые коэффициенты (синапсы), свойство Output, которое является выходом нейрона (результатом вычислений) и сумматор, роль которого, выполняет метод ComputeOut.

TNeuronHopf , потомок TNeuron, реализует нейрон используемый в нейронной сети Хопфилда, единственным отличием от базового класса, является использования активационной функции в перекрытом методе ComputeOut.

Следующим порожденным классом, является TNeuronBP служащий для программной реализации многослойных нейронных сетей. Аббревиатура BP в имени класса не должна вводить вас в заблуждение, что нейрон этого типа используется исключительно в сетях обучаемых по алгоритму обратного распространения, этим, мы лишний раз хотели подчеркнуть, что в нашем случае нейронная сеть обучается по этому алгоритму.
Переписан метод ComputeOut, использующий теперь нелинейную активационную функцию, которая реализована в виде индексированного свойства процедурного типа OnActivationF. Кроме того, добавлены два важных свойства, Delta – содержащая локальную ошибку и индексированное свойство PrevUpdate – содержащее величину коррекции весовых коэффициентов на предыдущем шаге обучения сети.

Основным назначением базового класса TLayer и его потомков TLayerHopf и TLayerBP является объединение нейронов в слой, для упрощения работы с нейронами.

Компонент TNeuralNet базовый компонент для всех видов нейронных сетей. TNeuralNet обеспечивает необходимую функциональность производных компонентов. Этот компонент поддерживает методы для работы со слоями сети (AddLayer, DeleteLayer) и методы для манипуляций с исходными данными (AddPattern, DeletePattern, ResetPatterns). Метод Init служит для построения нейронной сети. Большинство методов объявленных в разделе public в базовом компоненте и его потомках – виртуальные, что позволяет легко перекрывать их.
Компонент TNeuralNetHopf реализует нейронную сеть Хопфилда.

Дополнительно включены следующие методы: InitWeights – запоминает предъявленные образцы в матрице образов и метод Calc – вычисляет выход сети Хопфилда.

Компонент TNeuralNetBP реализует многослойную нейронную сеть обучаемую по алгоритму обратного распространения ошибки.

Дополнительно включены следующие методы: Compute – вычисляет выход нейронной сети, используется после обучения сети; TeachOffLine – обучает нейронную сеть. Компонент позволяет в режиме design-time, в окне Object Inspector, конструировать нейронную сеть добавляя или удаляя слои и нейроны в сети. Для этого используется редактор свойств NeuronsInLayer, имеющий следующий вид:

Совместимость с Neural Network Wizard

Следующим компонентом является TNeuralNetExtented порожденный от TNeuralNetBP, который обеспечивает полную совместимость с Neural Network Wizard. Дополнительно включены следующие методы: для записи (LoadPhase1, LoadPhase2, LoadPhase4, LoadNetwork) и чтения (SavePhase1, SavePhase2, SavePhase4, SaveNetwork) обученной нейронной сети в формате *.nnw; LoadDataFrom – загружает данные из текстового файла, а также метод NormalizeData нормализации входных и выходных данных; Train – для обучения нейронной сети; ComputeUnPrepData – для вычисления выхода сети, используется в том случае, если у вас входные значения ненормализованы.

Компонент позволяет в режиме design-time, в окне Object Inspector, выбирать нужные поля, а также задавать тип нормализации полей. Для этих целей используется редактор свойств, имеющий следующий вид:

Компонент TNeuralNetExtented один из самых мощных в библиотеке NeuralBase. Используя этот компонент, практически за считанные минуты можете получить готовое полнофункциональное приложение.

Демонстрационные программы

В качестве демонстрационных примеров приведены три программы, показывающие возможности предложенных компонентов.

Программа Recognition используя компонент TNeuralNetHopf , реализует нейронную сеть Хопфилда. Программа решает задачу распознавания образов. На вход сети подается некий образ, возможно искаженный или неполный и нейронная сеть восстанавливает образ, т.е. относит предъявляемый образ к одному из хранимых сетью образов, либо в случае неудачи, выдает новый образ, иногда называемый "химерой".

Программа XOR_Problem , реализует функцию "исключающее или", которая является стандартным тестом, после знаменитой работы Минского и Пейперта "Перцептроны". В основе программы лежит компонент TNeuralNetBP.

Программа EasyNNW , использующая компонент TNeuralNetExtented представляет собой аналог программы , единственным отличием от NNW является несколько "облегченный" интерфейс. Данный пример показывает, насколько легко и быстро, создаются программы реализующие нейронные сети с достаточно хорошей функциональностью на основе библиотеки компонентов NeuralBase.



Рекомендуем почитать

Наверх