[Batt92] Battiti, R., “Методы Первого и второго порядка для изучения: Между наискорейшим спуском и методом Ньютона”, Нейронный Расчет, Издание 4, № 2, 1992, стр 141–166.
[Beal72] Биль, E.M.L., “Деривация методов сопряженных градиентов”, во Ф.А. Лутсме, Эде., Численные методы для нелинейной оптимизации, Лондона: Academic Press, 1972.
[Bren73] брент, R.P., алгоритмы для минимизации без производных, Englewood Cliffs, NJ: Prentice Hall, 1973.
[Caud89] Caudill, M., краткая информация нейронных сетей, Сан-Франциско, CA: публикации почетного гражданина Миллера, 1989.
Этот набор бумаг из Журнала Эксперта по AI дает превосходное введение в поле нейронных сетей. Бумаги используют минимум математики, чтобы объяснить основные результаты ясно. Включены несколько хороших предложений для дополнительных материалов для чтения.
[CaBu92] Caudill, M. и К. Батлер, изучая нейронные сети: компьютерные исследования, издания 1 и 2, Кембридж, MA: нажатие MIT, 1992.
Это - рабочая книга 2D объема, спроектированная, чтобы дать студентам, “передает” опыт с нейронными сетями. Это записано для лабораторного курса в старшем или уровне выпускника первого года. Программное обеспечение для IBM PC и Компьютеров Apple Macintosh включено. Материал правильно написан, очиститесь, и полезный в понимании поля, которое традиционно было проложено под землей в математике.
[Char92] Charalambous, C., “Алгоритм метода сопряженных градиентов для эффективного обучения искусственных нейронных сетей”, Продолжения IEEE, Издание 139, № 3, 1992, стр 301–310.
[ChCo91] Чен, S., C.F.N. Кауэн, и пополудни Предоставление, “Ортогональный алгоритм обучения наименьших квадратов для радиальных сетей основной функции”, Транзакции IEEE на Нейронных сетях, Издании 2, № 2, 1991, стр 302–309.
Данная статья дает превосходное введение в поле радиальных основных функций. Бумаги используют минимум математики, чтобы объяснить основные результаты ясно. Включены несколько хороших предложений для дополнительных материалов для чтения.
[ChDa99] Chengyu, G. и К. Данай, “Диагностика отказа Эталонной тестовой задачи IFAC с основанной на модели рекуррентной нейронной сетью”, Продолжения 1 999 Международных конференций IEEE по вопросам Приложений управления, Издания 2, 1999, стр 1755–1760.
Исследование нейронной сети [DARP88] DARPA, Лексингтон, MA: M.I.T. Lincoln Laboratory, 1988.
Эта книга является резюме знания нейронных сетей, как они были известны 1 988. Это представляет теоретические основы нейронных сетей и обсуждает их текущие приложения. Это содержит разделы по ассоциативным памятям, текущим сетям, видению, распознаванию речи и робототехнике. Наконец, это обсуждает инструменты симуляции и технологию реализации.
[DeHa01a] Де Хесус, O. и М.Т. Хейган, “Обратная связь В течение Времени для Общего Класса Текущей Сети”, Продолжения Международной Объединенной Конференции по Нейронным сетям, Вашингтону, округ Колумбия, 15-19 июля 2001, стр 2638–2642.
[DeHa01b] Де Хесус, O. и М.Т. Хейган, “Прямой Алгоритм Возмущения для Общего Класса Текущей Сети”, Продолжения Международной Объединенной Конференции по Нейронным сетям, Вашингтону, округ Колумбия, 15-19 июля 2001, стр 2626–2631.
[DeHa07] Де Хесус, O. и М.Т. Хейган, “Алгоритмы обратного распространения для Широкого Класса Динамических Сетей”, Транзакции IEEE на Нейронных сетях, Издании 18, № 1, январь 2007, стр 14 - 27.
Данная статья предоставляет подробные алгоритмы для вычисления градиентов и Якобианов для произвольно соединенных нейронных сетей. И обратная-связь-через-разовый и текущие алгоритмы обучения в реальном времени покрыты.
[DeSc83] Деннис, J.E., и Р.Б. Шнабель, численные методы для оптимизации без ограничений и нелинейных уравнений, Englewood Cliffs, NJ: Prentice Hall, 1983.
[DHH01] De Хесус, O., Дж.М. Хорн и М.Т. Хейган, “Анализ Текущего Сетевого Обучения и Предложений для Улучшений”, Продолжения Международной Объединенной Конференции по Нейронным сетям, Вашингтону, округ Колумбия, 15-19 июля 2001, стр 2632–2637.
[Elma90] Элмен, J.L., “Находя структуру вовремя”, Когнитивистика, Издание 14, 1990, стр 179–211.
Данная статья является превосходным введением в сети Элмена, описанные в Главе 10, “Текущие Сети”.
[FeTs03] Фэн, J., Ц.К. Се и F.C.M. Ло, “Основанная на нейронной сети стратегия эквализации канала основанных на хаосе систем связи”, Транзакции IEEE на Схемах и Системах I: Основная Теория и Приложения, Издание 50, № 7, 2003, стр 954–957.
[FlRe64] Флетчер, R. и К.М. Ривз, “Функциональная минимизация методами сопряженных градиентов”, Компьютерный Журнал, Издание 7, 1964, стр 149–154.
[FoHa97] Предвидят, F.D., и М.Т. Хейган, “Приближение Ньютона гаусса к Байесовой регуляризации”, Продолжения 1 997 Международных Объединенных Конференций по Нейронным сетям, 1997, стр 1930–1935.
[GiMu81] жабры, P.E., В. Мюррей, и М.Х. Райт, практическая оптимизация, Нью-Йорк: Academic Press, 1981.
[GiPr02] Джанлука, P., Д. Прзыбыльский, Б. Рост, П. Бальди, “Улучшая предсказание белка вторичная структура в трех и восьми классах с помощью рекуррентных нейронных сетей и профилей”, Белки: Структура, Функция, и Генетика, Издание 47, № 2, 2002, стр 228–235.
[Gros82] Grossberg, S., исследования Мышления и мозга, Drodrecht, Голландия: нажатие Reidel, 1982.
Эта книга содержит статьи, обобщающие теоретическую психофизиологию Гроссберга, работают до 1 980. Каждая статья содержит предисловие, объясняющее основные идеи.
[HaDe99] Хейган, M.T., и Х.Б. Демут, “Нейронные сети для Управления”, Продолжения 1 999 американских Конференций по Управлению, Сан-Диего, CA, 1999, стр 1642–1656.
[HaJe99] Хейган, M.T., О. де Иисус и Р. Шульц, “Обучая Текущие Сети для Фильтрации и Управления”, Глава 12 в Рекуррентных нейронных сетях: Проект и Приложения, Л. Медскер и Л.К. Джайн, Редакторы, Нажатие CRC, стр 311–340.
[HaMe94] Хейган, M.T., и М. Менхэдж, “Обучая сети feedforward с алгоритмом Marquardt”, Транзакции IEEE на Нейронных сетях, Издании 5, № 6, 1999, стр 989–993, 1994.
Эта бумага сообщает о первой разработке алгоритма Levenberg-Marquardt для нейронных сетей. Это описывает теорию и применение алгоритма, который обучает нейронные сети на уровне в 10 - 100 раз быстрее, чем обычный метод обратной связи градиентного спуска.
[HaRu78] Харрисон, D., и Рубинфельд, D.L., “Гедонистические цены и спрос на чистый воздух”, J. Окружить. Экономика & управление, Издание 5, 1978, стр 81-102.
Этот набор данных был взят из библиотеки StatLib, которая обеспечена в Университете Карнеги-Меллон.
[HDB96] Хейган, M.T., Х.Б. Демут, и М.Х. Биль, проект нейронной сети, Бостон, MA: PWS Publishing, 1996.
Эта книга предоставляет ясный и подробный обзор базовых архитектур нейронной сети и изучения правил. Это подчеркивает математический анализ сетей, методы обучения нейронные сети и приложение сетей к практическим техническим проблемам. Это имеет примеры программы, руководство преподавателя и издержки прозрачности для обучения.
[HDH09] Рог, J.M., О. Де Хесус и М.Т. Хейган, “Побочные Овраги на Ошибочной Поверхности Текущих Сетей - Анализ и Предотвращение”, Транзакции IEEE на Нейронных сетях, Издании 20, № 4, стр 686-700, апрель 2009.
Данная статья описывает побочные овраги, которые появляются на ошибочных поверхностях текущих сетей. Это также объясняет, как алгоритмы настройки могут быть изменены, чтобы не становиться, всунул эти овраги.
[Hebb49] Hebb, D.O., организация Бехэвайора, Нью-Йорк: Вайли, 1949.
Эта книга предложила архитектуры нейронной сети и первое правило изучения. Правило изучения использовано, чтобы сформировать теорию того, как наборы ячеек могут сформировать концепцию.
[Himm72] Химмельблау, Д.М., прикладное нелинейное программирование, Нью-Йорк: McGraw-Hill, 1972.
[HuSb92] Поиск, K.J., Д. Сбарбаро, Р. Збиковский, и П.Дж. Готроп, Нейронные сети для Системы управления — Обзор”, Automatica, Издание 28, 1992, стр 1083–1112.
[JaRa04] Яядева и S.A.Rahman, “Нейронная сеть с O (N) нейроны для рейтинга N числа в O (1/N) время”, Транзакции IEEE на Схемах и Системах I: Регулярные Бумаги, Издание 51, № 10, 2004, стр 2044–2051.
[Joll86] Jolliffe, I.T., анализ главных компонентов, Нью-Йорк: Springer-Verlag, 1986.
[KaGr96] Kamwa, я., Р. Грондин, В.К. Суд, К. Ганьон, Ван Тич Нгуен и Дж. Мереб, “Рекуррентные нейронные сети для обнаружения фазовращателя и адаптивной идентификации в управлении энергосистемой и защите”, Транзакции IEEE на Инструментировании и Измерении, Издании 45, № 2, 1996, стр 657–664.
[Koho87] Kohonen, T., самоорганизация и ассоциативная память, 2-й выпуск, Берлин: Springer-Verlag, 1987.
Эта книга анализирует несколько правил изучения. Kohonen изучение правила затем введен и встроен в самоорганизующиеся карты функции. Ассоциативные сети также изучены.
[Koho97] Kohonen, T., самоорганизующиеся карты, второй выпуск, Берлин: Springer-Verlag, 1997.
Эта книга обсуждает историю, основные принципы, теорию, приложения и оборудование самоорганизующихся карт. Это также включает всесторонний литературный обзор.
[LiMi89] Литий, J., А.Н. Мишель и В. Пород, “Анализ и синтез класса нейронных сетей: линейные системы, работающие с закрытым гиперкубом”, Транзакции IEEE на Схемах и Системах, Издании 36, № 11, 1989, стр 1405–1422.
Данная статья обсуждает класс нейронных сетей, описанных линейными дифференциальными уравнениями первого порядка, которые заданы на закрытом гиперкубе. Рассмотренные системы сохраняют базовую структуру модели Хопфилда, но легче анализировать и реализовать. Бумага представляет эффективную методику для определения набора асимптотически точек устойчивого равновесия и набора точек неустойчивого равновесия. Примеры представлены. Метод Ли, и. al., реализован в Усовершенствованных Темах в Руководстве пользователя.
[Lipp87] Липпмен, R.P., “Введение в вычисление с нейронными сетями”, IEEE Журнал ASSP, 1987, стр 4–22.
Данная статья дает введение в поле нейронных сетей путем рассмотрения шести нейронных сетевых моделей, которые могут использоваться в классификации шаблонов. Бумага показывает, как существующая классификация и кластеризирующиеся алгоритмы могут быть выполнены с помощью простых компонентов, которые похожи на нейроны. Это - очень читаемая статья.
[Макк92] Маккея, D.J.C., “Байесова интерполяция”, Нейронный Расчет, Издание 4, № 3, 1992, стр 415–447.
[Marq63] Marquardt, D., “Алгоритм для Оценки Наименьших квадратов Нелинейных Параметров”, SIAM Journal на Прикладной математике, Издании 11, № 2, июнь 1963, стр 431–441.
[Макпи43] Маккалока, W.S., и В.Х. Питтс, “Логическое исчисление идей, постоянных в нервном действии”, Бюллетень Математической Биофизики, Издания 5, 1943, стр 115–133.
Классическая статья, которая описывает модель нейрона, который является двоичным файлом и имеет фиксированный порог. Сеть таких нейронов может выполнить логические операции.
[MeJa00] Medsker, L.R., и L.C. Джайн, Рекуррентные нейронные сети: проект и приложения, Бока-Ратон, FL: Нажатие CRC, 2000.
[Moll93] Moller, M.F., “Масштабированный алгоритм метода сопряженных градиентов для быстрого контролируемого изучения”, Нейронные сети, Издание 6, 1993, стр 525–533.
[MuNe92] Мюррей, R., Д. Неумеркель и Д. Сбарбаро, “Нейронные сети для Моделирования и Управления Нелинейной Динамической системы”, Продолжения 1 992 IEEE Международный Симпозиум по Интеллектуальному Управлению, 1992, стр 404–409.
[NaMu97] Нарендра, K.S., и С. Махопэдхьяи, “Адаптивное управление Используя Нейронные сети и Аппроксимированные Модели”, Транзакции IEEE на Нейронных сетях, Издании 8, 1997, стр 475–485.
[NaPa91] Нарендра, Кумпати С. и Кэннэн Партэсарати, “Изучение Подхода Автоматов к Иерархическому Многоцелевому Анализу”, Транзакции IEEE в Системах, Человеке и Кибернетике, Издании 20, № 1, январь/февраль 1991, стр 263–272.
[NgWi89] Нгуен, D. и Б. Видроу, “Верхний покровителем грузовик: пример самообучения в нейронных сетях”, Продолжения Международной Объединенной Конференции по Нейронным сетям, Изданию 2, 1989, стр 357–363.
Данная статья описывает сеть 2D слоя, которая сначала изучила динамику грузовика и затем изучила, как поддержать грузовик к заданной позиции в прикреплении загрузки. Для этого нейронная сеть должна была решить очень нелинейную задачу систем управления.
[NgWi90] Нгуен, D. и Б. Видроу, “Улучшая скорость изучения нейронных сетей с 2 слоями путем выбора начальных значений адаптивных весов”, Продолжения Международной Объединенной Конференции по Нейронным сетям, Изданию 3, 1990, стр 21–26.
Нгуен и Видроу показывают, что 2D слой сеть sigmoid/linear может быть просмотрен как выполнение кусочной линейной аппроксимации любой изученной функции. Показано, что веса и смещают сгенерированный определенным ограничительным результатом в начальной сети, лучше способной сформировать приближение функций из произвольной функции. Использование Нгуена-Видрова (вместо чисто случайного) начальные условия часто сокращает учебное время больше, чем порядок величины.
[Powe77] Пауэлл, M.J.D., “Процедуры перезапуска для метода сопряженных градиентов”, Математическое программирование, Издание 12, 1977, стр 241–254.
[Pulu92] Purdie, N., Э.А. Лукас и М.Б. Талли, “Прямая мера общего холестерина и его распределения среди главных липопротеинов сыворотки”, Клиническая Химия, Издание 38, № 9, 1992, стр 1645–1647.
[RiBr93] Riedmiller, M. и Х. Браун, “Прямой метод адаптации для более быстрой обратной связи, учащейся: алгоритм RPROP”, Продолжения Международной конференции IEEE по вопросам Нейронных сетей, 1993.
[Robin94] Робинсон, A.J., “Приложение текущих сетей, чтобы позвонить оценке вероятности”, Транзакции IEEE на Нейронных сетях, Издании 5, № 2, 1994.
Римлянин [RoJa96], J. и А. Джамиль, “Обратная связь и рекуррентные нейронные сети в финансовом анализе нескольких фондовый рынок возвращаются”, Продолжения Двадцать девятой Международной конференции Гавайев по вопросам Системных Наук, Издания 2, 1996, стр 454–460.
[Rose61] Розенблатт, F., принципы нейродинамики, Вашингтона, округ Колумбия: спартанское нажатие, 1961.
Эта книга представляет все результаты Розенблатта на perceptrons. В частности, это представляет его самый важный результат, perceptron изучение теоремы.
[RuHi86a] Rumelhart, D.E., Г. Хинтон и Р.Дж. Уильямс, “Изучение внутренних представлений передачей ошибок”, в Д. Румелхарте и Дж.Л. Макклеллэнде, Редакторах, Параллельная Обработка данных, Издание 1, Кембридж, MA: M.I.T. Нажмите, 1986, стр 318–362.
Это - основная ссылка на обратной связи.
[RuHi86b] Rumelhart, D.E., Г. Хинтон и Р.Дж. Уильямс, “Изучение представлений распространяющими спину ошибками”, Природа, Издание 323, 1986, стр 533–536.
[RuMc86] Rumelhart, D.E., Дж.Л. Макклеллэнд, и исследовательская группа PDP, редакторы, параллельная распределенная обработка, издания 1 и 2, Кембридж, MA: M.I.T. Нажмите, 1986.
Эти два объема содержат набор монографий, которые представляют техническое введение в поле нейронных сетей. Каждый раздел записан различными авторами. Эти работы представляют сводные данные большей части исследования в нейронных сетях на дату публикации.
[Scal85] шкалы, L.E., введение в нелинейную оптимизацию, Нью-Йорк: Springer-Verlag, 1985.
[SoHa96] Soloway, D. и П.Дж. Хейли, “Нейронное Обобщенное Прогнозирующее Управление”, Продолжения 1 996 IEEE Международный Симпозиум по Интеллектуальному Управлению, 1996, стр 277–281.
[VoMa88] Vogl, T.P., Дж.К. Манджис, А.К. Риглер, В.Т. Зинк и Д.Л. Олкон, “Ускоряя сходимость метода обратной связи”, Биологическая Кибернетика, Издание 59, 1988, стр 256–264.
Обратная связь, учащаяся, может быть ускорена и сделана менее чувствительная к маленьким функциям на ошибочной поверхности, таким как мелкие локальные минимумы путем объединения методов, таких как пакетная обработка, адаптивная скорость обучения и импульс.
[WaHa89] Waibel, A., Т. Хэнэзоа, Г. Хинтон, К. Сикано и К. Дж. Ленг, “Распознавание фонемы с помощью нейронных сетей с временной задержкой”, Транзакции IEEE на Акустике, Речи, и Обработке сигналов, Издании 37, 1989, стр 328–339.
[Wass93] Вассерман, P.D., передовые методы в нейронном вычислении, Нью-Йорк: Ван Нострэнд Райнхольд, 1993.
[WeGe94] Weigend, A. S., и Н. А. Герсхенфельд, редакторы, Предсказание Временных рядов: Предсказывая будущее и Понимание Прошлого, Чтение, MA: Аддисон-Уэсли, 1994.
[WiHo60] Widrow, B. и М. Хофф, “Адаптивные переключающие схемы”, 1 960 IRE Запись Соглашения WESCON, нью-йоркский IRE, 1960, стр 96–104.
[WiSt85] Widrow, B. и S.D. Кормы, адаптивная обработка сигналов, Нью-Йорк: Prentice Hall, 1985.
Это - основная статья об адаптивной обработке сигналов.