Изучив работу и структуру нейронных синапсов - мест соприкосновения клеток мозга, они создали первый обучаемый транзистор, который снабдит любую машину почти человеческой памятью о приобретённых навыках.
Уникальность человеческого мозга состоит в том, что он с каждым разом справляется всё лучше и лучше с одной и той же задачей. К примеру, если приготовление первого в вашей жизни шашлыка заняло у вас несколько часов и не увенчалось успехом, то в следующий раз вы справитесь быстрее, а через несколько месяцев будете готовить мясо автоматически, практически не задумываясь над своими действиями.
Способность мозга изменять собственную структуру в зависимости от приобретённых умений называется подвижностью. Это свойство обеспечивается в результате изменений в 100 триллионах синапсов - соединительных структур между клетками мозга.
Один из методов обучения мозга, укрепляющий связи между нейронами, называется синаптической пластичностью, зависящей от времени импульса (STDP). Один нейрон постоянно посылает сигнал через синапс другому нейрону и заставляет последний работать. Вследствие этого синапс укрепляется, обеспечивая лучшую проводимость сигнала на случай повторной передачи.
Синаптический транзистор, разработанный гарвардскими инженерами, имитирует этот процесс. Он имеет структуру, напоминающую полевой транзистор, где ионная жидкость выполняет функцию изолирующего слоя между электродом затвора и проводящим каналом. При этом сам канал состоит из 80-нанометрового никелата самария (SmNiO3 или SNO), а не из легированного кремния, как это обычно делается в полевых транзисторах.
Новый синаптический транзистор отличается мгновенной реакцией при обычных операциях и гораздо более медленной реакцией в процессе обучения. Мгновенная реакция протекает почти по той же схеме, что и в полевом транзисторе: количество электрического тока, которое проходит между источником и стоком, меняется в зависимости от количества напряжения, приложенного к электроду затвора.
Когда такой «синаптический» транзистор обучается (в нём укрепляется связь между виртуальными нейронами), то это проявляется в виде увеличения проводимости никелата самария.
Заметим, что такая обучаемость зависит от времени всплеска напряжения в транзисторе (идёт подсчёт прецедентных случаев). Фактически, при этом ионы кислорода циркулируют между никелатом самария и ионной жидкостью, что приводит к снижению коэффициента усиления.
Входной и выходной сигналы в синаптическом транзисторе будут иметь непрерывные аналоговые значения, а не цифровые сигналы включения-выключения. Эта особенность позволяет искусственным синапсам обучаться больше или меньше, со временем они постепенно улучшают свои навыки по выполнению какого-либо задания.
Несмотря на то, что физическая структура синаптического транзистора позволяет ему «обучаться», контролировать никелат самария непросто. Эту функцию инженеры возложили на внешнюю контрольную схему, которая конвертирует временную задержку между входным и выходным сигналами в напряжение, приложенное к ионной жидкости. В результате ионы к слою из никелата самария либо подводятся, либо удаляет их. В ответ на это транзистор самооптимизируется.
Коэффициент усиления транзистора регулируется с течением времени для того, чтобы средняя производительность соответствовала нормам эффективности в процессе обучения. Поэтому, если собрать множество синаптических транзисторов в массив, они смогут обучиться реакции на ввод сенсорной информации не через компьютерную программу, а через реальное запоминание и наращивание навыков, словно человеческий мозг.
«Наш транзистор действительно имитирует функцию мозговых синапсов. Каждый раз, когда нейрон посылает сигнал, другие реагируют, а синапс отвечает за укрепление связи между сообщающимися клетками. И чем быстрее нейрон посылает сигнал, тем прочнее становится синапс. Фактически, эти структуры запоминают всё, что происходило между двумя нейронами», - рассказывает один из ведущих авторов исследования Цзянь Ши (Jian Shi).
Разработчики пишут в пресс-релизе, что синаптические транзисторы откроют новую эру эволюции искусственного интеллекта, ведь их можно будет встраивать в саму архитектуру вычислительных машин. Соединённые в масштабные сети такие устройства обеспечат компьютерам будущего не только высокую производительность, но и «гибкость мышления».
Статья с подробным описанием разработки вышла в журнале Nature Communications.