Publication List (Keywords are shown in [ ])

Review Articles
Book Chapters or Sections
Papers with Peer Review
Papers without Peer Review
Reports
Theses in Our Lab


< Review Articles >

[9] 柴田克成:
End-to-End強化学習による知能創発と「思考」創発へ向けた新しい強化学習,
第62回システム制御情報学会研究発表講演会講演論文集 招待講演, in5.pdf, 2018.5
pdf file (6ページ, 2.8MB)
[end-to-end強化学習,知能創発,思考,カオスニューラルネット]

[8] 柴田克成:
あめとむちで知能を作る!? - ニューラルネットを用いたEnd-to-End(深層)強化学習と「思考」の創発に向けたカオスNN強化学習 -,
SlideShare, 2017.9 (in Japanese)
Link (Click here)

[7] Katsunari Shibata:
What is the Artificial Intelligence? and What I think about it,
SlideShare, 2017.9
Link (Click here)

[6] Katsunari Shibata & Yuki Goto:
New Reinforcement Learning Using a Chaotic Neural Network for Emergence of “Thinking”
— “Exploration” Grows into “Thinking” through Learning —,
arXiv:1705.05551, Proc. of The 3rd Multidiscipliary Conf. on Reinforcement Learning and Decision Making (RLDM)17, 2017.5
pdf File (5pages, 605KB)
Poster (6.2MB)
[Reinforcement Learning, Chaotic Neural Network, Emergence of Thinking, Exploration, Dynamics, Higher Functions]

[5] Katsunari Shibata:
Communications that Emerge through Reinforcement Learning Using a (Recurrent) Neural Network,
arXiv:1703.03543v2, Proc. of The 3rd Multidiscipliary Conf. on Reinforcement Learning and Decision Making (RLDM)17, 2017.5
pdf File (5pages, 401KB)
Poster (9.8MB)
[Communication, End-to-End Reinforcement Learning (RL), Recurrent Neural Network (RNN), Emergence of Discrete Representation, Learning of Negotiation]

[4] Katsunari Shibata:
Functions that Emerge through End-to-end Reinforcement Learning
— The Direction for Artificial General Intelligence —,
arXiv:1703.02239v2, Proc. of The 3rd Multidiscipliary Conf. on Reinforcement Learning and Decision Making (RLDM)17, 2017.5
pdf File (5pages, 352KB)
Poster (19.7MB)
[Function Emergence, End-to-End Reinforcement Learning (RL), Recurrent Neural Network (RNN), Higher Functions, Artificial General Intelligence (AGI)]

[3] 柴田克成,後藤祐樹:
深層学習が示唆するend-to-end強化学習に基づく機能創発アプローチの重要性と 思考の創発に向けたカオスニューラルネットを用いた新しい強化学習,
認知科学, Vol. 24, No. 1, pp. 96-117, 2017.3
article on the web site (22ページ, 4.5MB)
[end-to-end強化学習,深層学習,機能創発,思考の創発,カオスニューラルネット]

[2] Katsunari Shibata:
Emergence of Intelligence through Reinforcement Learning with a Neural Network,
Advances in Reinforcement Learning, Abdelhamid Mellouk (Ed.), InTech, pp.99-120, 2011. 2.
article on the web site
[reinforcement learning, neural network, emergence of intelligence, parallel architecture, unconscious process, deep learning]

[1] 柴田克成:
強化学習とニューラルネットによる知能創発, 計測と制御, Vol. 48, No. 1, pp. 106--111, 2009.1
韓国の出版社(株)尖端の月刊誌「自動化技術(Automation Systems)」に韓国語翻訳転載, pp. 76-82, 2009. 7
[強化学習、ニューラルネット、知能創発、並列アーキテクチャ、無意識処理,深層学習]
pdf File (6pages, 800kB) 追加のデータ等は こちらへ。


< Book Chapters or Sections >

[3] 柴田克成,:
ニューラルネットワーク,
「ロボット情報学ハンドブック」, ナノオプトニクスエナジー, 第7.5節, pp. 452-464, 2010

[2] 柴田克成, 岡部洋一, 伊藤宏司:
ニューラルネットを用いた強化学習とロボットの知能,
「ニューラルネットワーク計算知能」, 渡辺桂吾編著, 森北出版, 第12章,pp. 234-255, 2006

[1] 柴田克成, 岡部洋一:
強化学習,
「脳科学大事典」, 朝倉書店, 第3.16節, pp. 627-631, 2000


< Papers with Peer Review >

[98] Katsunari Shibata, Takuya Ejima, Yuki Tokumaru and Toshitaka Matsuki
Sensitivity – Local index to control chaoticity or gradient globally –
Neural Networks, Vol. 143, pp. 436-451, 2021. 11 (Link to
ScienceDirect), (Link to arXiv)
[Sensitivity, Sensitivity Adjustment Learning (SAL), Dynamics, Edge of Chaos, Vanishing Gradient Problem

[97] Toshitaka Matsuki and Katsunari Shibata
Adaptive balancing of exploration and exploitation around the edge of chaos in internal-chaos-based learning,
Neural Networks, Vol. 132, pp. 19-29, 2020. 12 (Link to ScienceDirect)
[Chaotic neural network, Reservoir computing, Reward-modulated Hebbian learning, Edge of Chaos, Exploration-exploitation dilemma]

[96] Toshitaka Matsuki and Katsunari Shibata
Learning Time Constant of Continuous-Time Neurons with Gradient Descent,
In: P. P. Abdul Majeed A., Mat-Jizat J., Hassan M., Taha Z., Choi H., Kim J. (eds) RITA 2018. Lecture Notes in Mechanical Engineering. Springer, pp. 149-159, 2018.12 (published in 2019.6)
pdf file (9 pages, 1.0MB)
[Time Constant, Gradient Descent, Continuous-Time Neuron, Supervised Learning, Self-Excited Oscillation]

[95] Katsuki Sato and Katsunari Shibata
Chaos-Based Reinforcement Learning When Introducing Refractoriness in Each Neuron,
In: Kim JH., Myung H., Lee SM. (eds) Robot Intelligence Technology and Applications. RiTA 2018. Communications in Computer and Information Science, vol 1015. Springer, pp. 76-84, 2018.12 (published in 2019.4)
pdf file (9 pages, 677KB)
[Reinforcement Learning, Chaotic Neural Network, Refractoriness]

[94] Toshitaka Matsuki and Katsunari Shibata
Reinforcement Learning of a Memory Task using an Echo State Network with Multi-Layer Readout,
In: Kim JH. et al. (eds) Robot Intelligence Technology and Applications 5. RiTA 2017. Advances in Intelligent Systems and Computing, vol 751. Springer, pp. 17-26, 2017.12 (published in 2018)
pdf file (9 pages, 1.0MB)
[Reservoir Network, Multi-Layer Readout, Reinforcement Learning, Memory Task]

[93] Yuki Goto and Katsunari Shibata
Influence of the Chaotic Property on Reinforcement Learning Using a Chaotic Neural Network,
In: Liu D., Xie S., Li Y., Zhao D., El-Alfy ES. (eds) Neural Information Processing. ICONIP 2017. Lecture Notes in Computer Science(LNCS), Springer, Vol. 10634, pp. 759-767, 2017.11
pdf file (8 pages, 345KB) The original publication is available at www.springerlink.com
[Reinforcement Learning, Chaotic Neural Network, Lyapunov Exponent]

[92] Yuki Goto and Katsunari Shibata
Emergence of Higher Exploration in Reinforcement Learning Using a Chaotic Neural Network,
In: Hirose A., Ozawa S., Doya K., Ikeda K., Lee M., Liu D. (eds) Neural Information Processing. ICONIP 2016. Lecture Notes in Computer Science, Springer, Vol. 9947, pp. 40-48, 2016.10
pdf file (8 pages, 1.3MB)
The original publication is available at www.springerlink.com
[Reinforcement Learning, Chaotic Neural Network, Higher Exploration, Obstacle Avoidance]

[91] Toshitaka Matsuki and Katsunari Shibata
Reward-Based Learning of a Memory-Required Task Based on the Internal Dynamics of a Chaotic Neural Network,
In: Hirose A., Ozawa S., Doya K., Ikeda K., Lee M., Liu D. (eds) Neural Information Processing. ICONIP 2016. Lecture Notes in Computer Science, Springer, Vol. 9947, pp. 376-383, 2016.10
pdf file (8 pages, 3.3MB)
The original publication is available at www.springerlink.com
[Reservoir Network, Reward-Modulated Hebbian Learning, Exploration, Chaos, Memory-Required Task]

[90] Katsunari Shibata and Yuta Sakashita
Reinforcement Learning with Internal-Dynamics-based Exploration Using a Chaotic Neural Network,
Proc. of Int'l Joint Conf. on Neural Networks (IJCNN)2015, #15231 (CD-ROM), 2015.7
pdf file (8 pages, 843KB)
[Reinforcement Learning, Chaotic Neural Network, Exploration, Thinking, Internal Dynamics]

[89] Katsunari Shibata
Causality Traces for Retrospective Learning in Neural Networks - Introduction of Parallel and Subjective Time Scales -,
Proc. of Int'l Joint Conf. on Neural Networks, P542 (CD-ROM) , 2014.7
pdf file (8 pages, 302KB)
[Causality Traces, Subjective Time-Scale, Reinforcement Learning, Recurrent Neural Network]

[88] A.A.M. Faudzi and Katsunari Shibata
Acquisition of Context-Based Active Word Recognition by Q-Learning Using a Recurrent Neural Network,
J.-H. Kim et al. (eds.), Robot Intelligent Technoloy and Application, Vol. 2, Advances in Intelligent System and Computing, 274, pp. 191-200, 2014.4
pdf file (10 pages, 1.7MB)
[Reinforcement Learning, Recurrent Neural Network, Active Word Recognition]

[87] Katsunari Shibata and Kenta Goto
Emergence of Flexible Prediction-Based Discrete Decision Making and Continuous Motion Generation through Actor-Q-Learning,
Proc. of Int'l Conf. on Development and Learning and on Epigenetic Robotics (ICDL-Epirob) 2013, ID 15 (CDROM) 2013. 8
pdf file (6 pages, 684KB)
[Reinforcement Learning, Recurrent Neural Network, Function Emergence, Prediction, "What" Probelm]

[86] Yoshito Sawatsubashi, Mohamad Faizal bin Samsudin and Katsunari Shibata
Emergence of Discrete and Abstract State Representation through Reinforcement Learning in a Continuous Input Task,
Advances in Intelligent Systems and Computing, Robot Intelligence Technology and Applications 2012, Proc. of RiTA 2012, M1C-2.pdf, pp. 13-22 2012. 12
pdf File (9 pages, 152KB)
[Reinforcement Learning, Recurrent Neural Network, Concept Formation, Emergence of State Transition]

[85] Katsunari Shibata and Shuji Enoki:
Differential Trace in Learning of Value Function with a Neural Network,
Advances in Intelligent Systems and Computing, Robot Intelligence Technology and Applications 2012, Proc. of RiTA 2012, M2C-4.pdf, pp. 55-64 2012. 12
pdf File (9 pages, 758KB)
[Differential Trace, Value Function, Neural Network, Subjective Time]

[84] Mohamad Faizal bin Samsudin, Yoshito Sawatsubashi and Katsunari Shibata:
Emergence of Multi-Step Discrete State Transition through Reinforcement Learning with a Recurrent Neural Network,
LNCS(Lecture Notes in Computer Science), Neural Information Processing, Proc. of ICONIP (Int'l Conf. on Neural Information Processing) 2012, Vol. 7664, pp. 583-590, 2012. 11
pdf File (6 pages, 1.6MB)
[Reinforcement Learning, Recurrent Neural Network, Multi-step State Transition]

[83] Katsunari Shibata and Shunsuke Kurizaki:
Emergence of Color Constancy Illusion through Reinforcement Learning with a Neural Network,
Proc. of ICDL-EpiRob (Int'l Conf. on Development and Learning - Epigenetic Robotics) 2012, PID2562951.pdf, 2012. 11
pdf File (6 pages, 1.6MB) DOI: 10.1109/DevLrn.2012.6400580
[Reinforcement Learning, Neural Network, Optical Illusion, Unconscious Process, Color Constancy]

[82] Katsunari Shibata and Kazuki Sasahara:
Emergence of Purposive and Grounded Communication through Reinforcement Learning,
LNCS(Lecture Notes in Computer Science), Vol. 7064, Proc. of ICONIP (Int'l Conf. on Neural Information Processing). 2011, pp.66-75 ,2011. 11
pdf File (10 pages, 1.7MB)
[Reinforcement Learning, Neural Network, Communication, Function Emergence, Robot, Deep Learning]

[81] Reinaldo Uribe, Fernando Lozanom, Katsunari Shibata and Charles Anderson:
Discount and Speed/Execution tradeoffs in Makov Decision Process Games,
Proc. of CIG (IEEE Conf. on Computational Intelligence and Games). 2011, pp. 79-86, 2011.8
pdf File on the conference site
[Game, Natural Trade-off, Discount Factor]

[80] Katsunari Shibata and Hiroki Utsunomiya:
Discovery of Pattern Meaning from Delayed Rewards by Reinforcement Learning with a Recurrent Neural Network,
Proc. of IJCNN (Int'l Joint Conf. on Neural Networks). 2011, pp. 1445-1452, N-0311.pdf, 2011. 7
pdf File (8 pages, 312KB)
[Reinforcement Learning, Recurrent Neural Network, Memory, Function Emergence, Pattern Meaning, Deep Learning]

[79] Kenta Goto and Katsunari Shibata:
Acquisition of Deterministic Exploration and Purposive Memory through Reinforcement Learning with a Recurrent Neural Network,
Proc. of SICE Annual Conf. 2010, FB03-1.pdf, 2010. 8
pdf File (7 pages, 312KB)
[Exploration, Reinforcement Learning, Recurrent Neural Network, Memory, Function Emergence]

[78] Armad Afif Mohd Faudi and Katsunari Shibata:
Learning of Camera Motion and Object Recognition Using Actor-Q Architecture,
Proc. of SICE Annual Conf. 2010, FB03-2.pdf, 2010. 8
pdf File (7 pages, 1.5MB)
[Active Perception, Reinforcement Learning, Neural Network, Actor-Q Architecture, Character Recognition]

[77] Kenta Goto and Katsunari Shibata:
Emergence of prediction by reinforcement learning using a recurrent neural network,
Journal of Robotics, Vol. 2010, Article ID 437654, 2010. 6
[Prediction, Reinforcement Learning, Recurrent Neural Network, Memory, Function Emergence]
pdf File (9 pages, 1.8MB)

[76] Katsunari Shibata and Yusuke Ikeda:
Effect of number of hidden neurons on learning in large-scale layered neural networks,
Proc. of ICCAS-SICE (ICROS-SICE Int'l Joint Conf.) 2009,
pp. 5008--5013, 4B16-2.pdf (CD-ROM), 2009. 8
[Large-Scale Layered Neural Network, Learning Stability, Supervised Learning, Error Back-Propagation]
pdf File (6 pages, 1.3MB)

[75] Katsunari Shibata and Tomohiko Kawano:
Acquisition of Flexible Image Recognition by Coupling of Reinforcement Learning and a Neural Network,
SICE Journal of Control, Measurement, and System Integration (JCMSI),
Vol. 2, No. 2, pp. 122--129, 2009. 3
You can see visualized weight data that are not included in this paper here.
[Deep Learning, Reinforcement Learning, Neural Network, Robot, Image Recognition, Internal Representation]
pdf File (8 pages, 1MB)

[74] Katsunari Shibata and Tomohiko Kawano:
Learning of Action Generation from Raw Camera Images in a Real-World-like Environment
by Simple Coupling of Reinforcement Learning and a Neural Network,
Advances in Neuro-Information Processing, Lecture Notes in Computer Science,
Proc. of ICONIP (Int'l Conf. on Neural Information Processing) 08,
Vol. 5506, pp. 755--762, 55060755.pdf (CD-ROM), 2009
[Deep Learning, Reinforcement Learning, Neural Network, Robot, Image Recognition, Internal Representation]
pdf File (8pages, 988kB)

[73] Mohamad Faizal Bin Samsudin and Katsunari Shibata:
Improvement of Practical Recurrent Learning Method and Application to a Pattern Classification Task,
Advances in Neuro-Information Processing, Lecture Notes in Computer Science,
Proc. of ICONIP (Int'l Conf. on Neural Information Processing) 08,
Vol. 5507, pp. 631-638, 55070631.pdf (CD-ROM), 2009
[Practical Recurrent Learning(PRL), Recurrent Neural Network, Learning Algorithm, Scanned Image Recognition]
pdf File (8pages, 256kB)

[72] Hioroki Utsunomiya and Katsunari Shibata:
Contextual Behavior and Internal Representations Acquired by Reinforcement Learning
with a Recurrent Neural Network in a Continuous State and Action Space Task,
Advances in Neuro-Information Processing, Lecture Notes in Computer Science,
Proc. of ICONIP (Int'l Conf. on Neural Information Processing) 08,
Vol. 5507, pp. 970--978, 5507-0970.pdf (CD-ROM), 2009
[Reinforcement Learning, Contextual Behavior, Recurrent Neural Network, Internal Representation]
pdf File (9pages, 472kB)

[71] Mohamad Faizal Bin Samsudin, Takeshi Hirose and Katsunari Shibata:
Practical Recurrent Learning (PRL) in the Discrete Time Domain,
Neural Information Processing of Lecture Notes in Computer Science, Vol. 4984,
( Proc. of Int'l Conf. on Neural Information Processing System (ICONIP) 07 Kitakyushu),
pp. 228-237, 2007.11
[Practical Recurrent Learning(PRL), Recurrent Neural Network, Learning Algorithm]
pdf File (10pages, 236kB)

[70] 柴田克成,伊藤宏司:
階層型ニューラルネットにおける中間層での適応的空間再構成と中間層レベルの汎化に基づく知識の継承,
計測自動制御学会論文集, Vol. 43, No. 1, pp. 54-63 (2007.1)
[階層型ニューラルネット, 中間層レベルの汎化,知識の継承, 強化学習]
pdf File (10pages, 272kB)

[69] Katsunari Shibata:
Learning of Deterministic Exploration and Temporal Abstraction in Reinforcement Learning,
Proc. of SICE-ICCAS (SICE-ICASE Int'l Joint Conf.), pp. 4569-4574, 2006. 10
[Deterministic Exploration, Temporal Abstraction, Reinforcement Learning, Recurrent Neural Network]
pdf File (6 pages, 462kB)

[68] Katsunari Shibata:
Spatial Abstraction and Knowledge Transfer in Reinforcement Learning Using a Multi-Layer Neural Network ,
Proc. of ICDL5 (Fifth Int'l Conf. on Development and Learning) 2006, 36 (CD-ROM), 2006. 5
[Spatial Abstraction, Knowledge Transfer, Reinforcement Learning, Neural Network]
pdf File (6 pages, 712kB)

[67]Shinya Ishii, Munetaka Shidara and Katsunari Shibata:
A Model to Explain the Emergence of Reward Expectancy neurons using Reinforcement Learning and Neural Network,
Neurocomputing, Vol. 69, pp. 1327-1331, 2006.5
[Anterior Cingulate Cortex, Reinforcement Learning, Recurrent Neural Network]
pdf File (5 pages, 200kB)

[66] Katsunari Shibata:
Acquisition of Deterministic Exploration Behavior by Reinforcement Learning,
Proc. of the 11th Int'l Symp. on Artificial Life and Robotics (AROB), CD-ROM, 2006.1
[Deterministic Exploration, Reinforcement Learning, Recurrent Neural Network]
pdf File (4 pages, 284kB)

[65]Katsunari Shibata:
Discretization of Series of Communication Signals in Noisy Environment by Reinforcement Learning,
Ribeiro et al(eds.), Adaptive and Natural Computing Algorithms, Proc. of the 7th Int'l Conf. in Adaptive and Natural Computing Algorithms (ICANNGA'05), pp. 486-489, 2005. 3
[Communication, Symbol Emergence, Reinforcement Learning, Recurrent Neural Network]
pdf File (4 pages, 224kB)

[64]Masanobu Nakanishi & Katsunari Shibata:
Effect of Action Selection on Emergence of One-way Communication Using Q-learning,
Proc. of the 10th Int'l Symp. on Artificial Life and Robotics (AROB), CD-ROM, GS7-3, 2005.2
[Communication, Reinforcement Learning]
pdf File (4 pages, 312kB)

[63]Shinya Ishii, Munetaka Shidara and Katsunari Shibata:
A Model of Emergence of Reward Expectancy neurons by Reinforcement Learning,
Proc. of the 10th Int'l Symp. on Artificial Life and Robotics (AROB), CD-ROM, GS21-5, 2005.2
[Anterior Cingulate Cortex, Reinforcement Learning, Recurrent Neural Network]
pdf File (4 pages, 259kB)

[62]Katsunari Shibata & Masanori Sugisaka: (Almost the same as [45])
Dynamics of a Recurrent Neural Network Acquired through Learning of a Context-based Attention Task,
Artificial Life and Robotics, Vol. 7, No. 4, pp. 145-150, 2004.5
[Recurrent Neural Network, Associative Memory, Attention]
pdf File (6 pages, 3.8MB)

[61]Masaru Iida, Masanori Sugisaka & Katsunari Shibata: (Almost the same as [43])
Direct-Vision-Based Reinforcement Learning in a Real Mobile Robot,
Artificial Life and Robotics, Vol. 7, pp. 102-106, 2004. 2
[Direct-Vision-Based Reinforcement Learning, Real Mobile Robot]
pdf File (5 pages, 1.1MB)

[60]Katsunari Shibata & Masanobu Nakanishi:
Discretization of Analog Communication Signals by Noise Addition in Communication Learning,
Proc. of The 9th AROB (Int'l Sympo. on Artificial Life and Robotics), Vol. 2, pp. 351-354, 2004. 1
[Symbol Emergence, Reinforcement Learning, Neural Network, Communication, Noise]
pdf File (4 pages, 249kB)

[59]Ryusuke Kurino, Masanori Sugisaka & Katsunari Shibata:
Growing Neural Network with Hidden Neurons,
Proc. of The 9th AROB (Int'l Sympo. on Artificial Life and Robotics), Vol. 1, pp. 144-147, 2004. 1
[Growing Neural Network, Hidden Neuron]
pdf File (4 pages, 191kB)

[58]Kazuyoshi Yuki, Masanori Sugisaka & Katsunari Shibata:
Learning of Reaching a Colored Object Based on Direct-Vision-Based Reinforcement Learning and Acquired Internal Representation,
Proc. of The 9th AROB (Int'l Sympo. on Artificial Life and Robotics), Vol. 2, pp. 486-489, 2004. 1
[Direct-Vision-Based Reinforcement Learning, Neural Network, Color and Position]
pdf File (4 pages, 333kB)

[57]Masanobu Nakanishi, Masanori Sugisaka & Katsunari Shibata:
Occurrence of State Confusion in the Learning of Communication Using Q-leaning,
Proc. of The 9th AROB (Int'l Sympo. on Artificial Life and Robotics), Vol. 2, pp. 663-666, 2004. 1
[Q-learning, State Confusion, Communication]
pdf File (4 pages, 155kB)

[56]Katsunari Shibata & Masaru Iida:
Acquisition of Box Pushing by Direct-Vision-Based Reinforcement Learning,
Proc. of SICE Annual Conf. 2003, 0324.pdf, pp. 1378-1383, 2003. 8
pdf File (6 pages, 644kB)

[55]Katsunari Shibata & Koji Ito:
Hidden Representation after Reinforcement Learning of Hand Reaching Movement with Variable Link Length,
Proc. of IJCNN (Int'l Conf. on Neural Networks) 2003, 1475-674.pdf, pp.2619-2624, 2003. 7
pdf File (6 pages, 764kB)

[54]Ryusuke Kurino, Masanori Sugisaka & Katsunari Shibata:
Growing Neural Network for Acquisition of 2-layer Structure,
Proc. of IJCNN (Int'l Conf. on Neural Networks) 2003, 1455-703.pdf, pp.2512-2517, 2003. 7
pdf File (6 pages, 160kB)

[53]柴田克成、上田雅英、伊藤宏司:
強化学習による個性・社会性の発現・分化モデル,
計測自動制御学会論文集, Vol. 39, No. 5, pp. 494-502, 2003.5
pdf File (9 pages, 186kB)

[52]Katsunari Shibata, Tsutomu Masaki & Masanori Sugisaka:
Autonomous Learning of Reward Distribution in Not100 Game,
Proc. of AROB (Int'l Symp. on Artificial Life and Robotics) 8th, pp.78-81, 2003.1
pdf File (4 pages, 116kB)

[51]Masaru Iida, Masanori Sugisaka & Katsunari Shibata:
Application of Direct-Vision-Based Reinforcement Learning to a Real Mobile Robot with a CCD Camera,
Proc. of AROB (Int'l Symp. on Artificial Life and Robotics) 8th, pp.86-89, 2003.1

[50]Daiki Kiyosuke, Masanori Sugisaka & Katsunari Shibata:
Body Growth Effect on Reinforcement Learning in a Simple Standing-up Task,
Proc. of AROB (Int'l Symp. on Artificial Life and Robotics) 8th, pp. 90-93, 2003.1

[49]Ryusuke Kurino, Masanori Sugisaka & Katsunari Shibata:
Acquisition of 2-layer Structure in a Growing Neural Network, Proc. of AROB (Int'l Symp. on Artificial Life and Robotics) 8th, pp. 391--394, 2003.1

[48]Katsunari Shibata, Tetsuo Nishino & Yoichi Okabe: (Almost the same as [41])
Active Perception and Recognition Learning System Based on Actor-Q Architecture
Systems and Computers in Japan, Vol. 33, No. 14, pp. 12-22, 2002. 12

[47]Katsunari Shibata & Koji Ito:
Effect of Force Load in Hand Reaching Movement Acquired by Reinforcement Learning,
Proc. of Int'l Conf. on Neural Information Processing Systems (ICONIP '02), Vol. 3, pp. 1444-1448, 2002.11
pdf File (5 pages, 200kB)

[46]Masaru Iida, Masanori Sugisaka & Katsunari Shibata:
Application of Direct-Vision-Based Reinforcement Learning to a Real Mobile Robot,
Proc. of Int'l Conf. of Neural Information Processing Systems (ICONIP '02), Vol. 5, pp. 2556--2560, 2002. 11
pdf File (5 pages, 640AROB03kB)

[45]Katsunari Shibata and Masanori Sugisaka:
Dynamics of a Recurrent Neural Network Acquired through the Learning of a Context-based Attention Task,
Proc. of AROB (Int'l Sympo. on Artificial Life and Robotics) 7th, pp. 152-155, 2002.1
pdf File (4 pages, 126kB)

[44]Shin'ich Maehara, Masanori Sugisaka and Katsunari Shibata:
Effectiveness of Sensory Motion in the Learning of Capturing Task of a Moving Object
Proc. of AROB (Int'l Sympo. on Artificial Life and Robotics) 7th, pp. 46-49, 2002.1

[43]Masaru Iida, Masanori Sugisaka and Katsunari Shibata:
Direct-Vision-Based Reinforcement Learning in a Real Mobile Robot,
Proc. of AROB (Int'l Sympo. on Artificial Life and Robotics) 7th, pp. 42-45, 2002.1

[42]Katsunari Shibata:
Formation of Attention and Associative Memory Based on Reinforcement Learning,
Proc. of ICCAS (Int'l Conf. on Control, Automation and Systems) 2001, pp. 9-12, 2001. 10
[Selective Attention, Associative Memory, Recurrent Neural Network, Reinforcement Learning]
pdf File (4 pages, 136kB)

[41]柴田克成, 西野哲生, 岡部洋一:
Actor-Qアーキテクチャに基づく能動認識学習システム,
電子情報通信学会論文誌, Vol. J84-D-II, No. 9, pp.2121-2130, 2001. 9
[Actor-Q architecture, reinforcement learning, active perception,neural network]
pdf File (10 pages, 894kB)

[40]内田宗恒, 柴田克成, 鄭心知, 伊藤宏司:
力学モデルによるエネルギー蓄積型大腿義足のパラメータ調節,
バイオメカニズム学会誌, Vol.25, No.2,pp.81-87, 2001. 5
[大腿義足, エネルギー蓄積型, 立脚相]

[39]Katsunari Shibata, Tetsuo Nishino, and Yoichi Okabe,
Actor-Q Based Active Perception Learning System,
Proc. of ICRA (Int'l Conf. on Robotics and Automation) 2001, pp.1000-1005, 2001. 5
[Actor-Q architecture, reinforcement learning, active perception,neural network]
pdf File (6 pages, 833kB)

[38]柴田克成, 岡部洋一, 伊藤宏司:
ニューラルネットワークを用いたDirect-Vision-Based強化学習 −センサからモータまで−,
計測自動制御学会論文集, Vol.37, No.2, pp.168-177, 2001.2
[deep learning, reinforcement learning, neural network, visual sensor, hidden representation, localization]
pdf File (10 pages, 307kB)

[37]Katsunari Shibata, Masanori Sugisaka and Koji Ito:
Fast and Stable Learning in Direct-Vision-Based Reinforcement Learning,
Proc. of AROB (Int'l Sympo. on Artificial Life and Robotics) 6th, Vol. 1, pp.200-203, 2001.1
[deep learning, reinforcement learning, neural network, visual sensor, localization]
pdf File (4 pages, 150kB)

[36]Shin'ichi Maehara, Masanori Sugisaka and Katsunari Shibata:
Reinforcement Learning Using Gauss-Sigmoid Neural Network,
Proc. of AROB (Int'l Sympo. on Artificial Life and Robotics) 6th, Vol.2, pp.562-565, 2001.1
[reinforcement learning, Gauss-Sigmoid neural network, hill-car problem]
pdf File (4 pages, 164kB)

[35]Katsunari Shibata, Masanori Sugisaka and Koji Ito:
Hand Reaching Movement Acquired through Reinforcement Learning,
Proc. of 2000 KACC (Korea Automatic Control Conf.), 90rd (CD-ROM), 2000. 10
[Reinforcement Learning, Reaching Task, Hand Locus, Dynamics]
PDF File (186kB)

[34]Xin-Zhi Zheng, Wataru Inamura, Katsunari Shibata and Koji Ito:
Robotic Batting System --- An Architecture for Learning and Dynamic Pattern Generation ---,
Advanced Robotics Vol. 14, No. 5, pp.435-437, 2000. 10
[Batting, Dynamic Manipulation, Torque Output, Neural Network, Optimal Control]

[33]S. Morita, K. Shibata, X.-Z. Zheng and K. Ito:
Prosthetic Hand Control based on Torque Estimation from EMG Signals,
Proc. of IROS 2000 (IEEE/RSJ Int'l Conf. on Intelligent Robotics and Systems), Vol.1, pp. 389-394, 2000.10
[Prosthetic Hand, EMG, Neural Network]

[32]E. A. Y. Murakami, K. Shibata, X.-Z. Zheng and K. Ito:
Human Control Characteristics in Bilateral Micro-Teleoperation System,
Proc. of IECON (Int'l Conf. on Industrial Applications of Electronics), 2000.10
[Micro-Teleoperation, Human Dynamics, Scaling, Master-Slave System, Transfer Function]

[31]S. Morita, K. Shibata, X.-Z. Zheng and K. Ito:
Human-EMG Prosthetic Hand Interface Using Neural Network,
Proc. of IMEKO 2000 (Int'l Measurement Confederation XVI IMEKO World Congress), 2000. 9
[Prosthetic Hand, EMG, Neural Network]

[30]E. A. Y. Murakami, K. Shibata, X.-Z. Zheng and K. Ito:
Analysis of Human Dynamics in Micro-Teleoperation System,
Proc. of IMEKO 2000 (Int'l Measurement Confederation XVI IMEKO World Congress), 2000. 9
[Micro-Teleoperation, Human Dynamics, Scaling, Master-Slave System, Transfer Function]

[29]Katsunari Shibata and Koji Ito:
Autonomous Learning of Reward Distribution for Each Agent in Multi-Agent Reinforcement Learning,
Intelligent Autonomous Systems, Vol. 6, pp. 495-502, 2000.7
[Multi-Agent Systems, Reinforcement Learning, Reward Distribution]
pdf File (8 pages, 930kB)

[28]X.-Z. Zheng, W. Inamura, K. Shibata and K. Ito:
A Learning and Dynamic Pattern Generating Architecture for Skillful Robotic Baseball Batting System,
Proc. of ICRA 2000 (IEEE Int'l Conf. on Robotics and Automation), pp. 3227-3232, 2000. 4

[27]Katsunari Shibata, Masahide Ueda, and Koji Ito:
Emergence of Individuality and Sociality by Reinforcement Learning,
Proc. of AROB (Int'l Symposium on Artificial Life and Robotics) 5th 2000, Vol. 2, pp. 589 - 592, 2000.1
[Individuality, Sociality, Reinforcement Learning, Multi-Agent Systems]
pdf File (4 pages, 119kB)

[26] 柴田克成, 伊藤宏司:
利害の衝突回避のための交渉コミュニケーションの学習 −リカレントニューラルネットを用いたダイナミックコミュニケーションの学習−,
計測自動制御学会論文誌, Vol.35, No.11, pp.1346-1354, 1999.11
[dynamic communication, recurrent neural network, negotiation, individuality]
pdf File (10 pages, 214kB)

[25] K. Shibata and K. Ito:
Hand-Eye Coordination in Robot Arm Reaching Task by Reinforcement Learning Using Neural Networks,
Proc. of IEEE SMC (Int'l Conf. on Systems, Man, and Cybernetics) '99, Vol.V, pp. V-458 - 463, 1999.10
[hand-eye coordination, reinforcement learning, neural network, internal representation]
pdf File (6 pages, 471kB)

[24] X-Z Zheng, W. Inamura, K. Shibata and K. Ito:
Task Skill Formation via Motion Repetition in Robotic Dynamic Manipulation,
Porc. of IEEE SMC (Int'l Conf. on Systems, Man, and Cybernetics) '99, Vol.IV, pp. IV-1001 - 1006, 1999.10
[neural network, optimal control, generalization, hitting task]

[23] K. Shibata and K. Ito:
Gauss-Sigmoid Neural Network,
Proc . of IJCNN (Int'l Joint Conf. on Neural Networks) '99, #747 (6pages), 1999. 7
[neural network, localization, integration, RBF, learning]
pdf File (6 pages, 139kB)

[22]K. Shibata and K. Ito :
Emergence of Communication for Negotiation By a Recurrent Neural Network,
Proc. of ISADS (Int'l Symposium on Autonomous Decentralized System) '99, pp.294-301, 1999.3
[dynamic communication, recurrent neural network, reinforcement learning, individuality, negotiation, multi-agent system]
PDF File (8 pages, 124kB)

[21]K. Shibata and K. Ito :
Reconstruction of Visual Sensory Space on the Hidden Layer in a Layered Neural Networks,
Proc. of ICONIP (Int'l Conf. on Neural Information Processing) '98, Vol. 1, pp.405-408, 1998.10
[neural network, generalization, visual sensor, spatial recognition, integration]
pdf File (4 pages, 162kB)

[20]K. Shibata, K. Ito and Y. Okabe :
Simple Learning Algorithm for Recurrent Networks to Realize Short-Term Memories,
Proc. of IJCNN (Int'l Joint Conf. on Neural Networks) '98, pp. 2367-2372, 1998.5
[recurrent neural network, supervised learning algorithm, back propagation (BP)]
(PDF file 82kB A4 6 pages)

[19]K. Shibata, Y. Okabe and K. Ito :
Direct-Vision-Based Reinforcement Learning in "Going to an Target" Task with an Obstacle and with a Variety of Target Sizes,
Proc. of NEURAP(Neural Networks and their Applications)'98, pp.95-102, 1998.3
[reinforcement learning, visual sensor, neural network, obstacle avoidance, stereo vision, mobile robot]
pdf File (8 pages, 369kB)

[18]柴田克成, 岡部洋一:
時間軸スムージング学習,
電気学会論文誌C分冊, Vol. 117-C, No. 9, pp.1291-1299, 1997.9
[neural network, temporal smoothing learning, mapping from space to time, local sensory signal integration, reinforcement learning]

[17]K. Shibata and Y. Okabe :
Reinforcement Learning When Visual Sensory Signals are Directly Given as Inputs,
Proc. of ICNN (Int'l Conf. on Neural Networks) '97 Houston, Vol. 3, pp.1716-1720, 1997.6
[deep learning, reinforcement learning, neural network, visual sensor, hidden neuron, mobile robot]
pdf File (5 pages, 258kB)

[16]柴田克成:
ニューラルネットを用いた自律学習システムの研究,
東京大学大学院博士論文, 1997. 3

第1章 序論 (pdf file 426kB 17pages)
第2章 基本となる学習則 (pdf file 232kB 9pages)
第3章 相関情報抽出学習と空間認識モデル (pdf file 528kB 22pages)
第4章 時間軸スムージング学習に基づく局所センサ信号の統合 (pdf file 298kB 15pages)
第5章 局所センサ信号統合化学習による視覚系機能の学習モデル (pdf file 291kB 10pages)
第6章 強化学習に基づく能動認識 (pdf file 438kB 18pages)
第7章 時間軸スムージング学習に基づく遅延強化学習 (pdf file 588kB 32pages)
第8章 結論 (pdf file 183kB 4pages)
参考文献 (pdf file 40kB 5pages)

[15]柴田克成, 西野哲生, 岡部洋一:
強化学習による能動認識能力の学習,
日本神経回路学会誌, Vol. 3, No. 4, pp.126-134, 1996.12
[active perception, reinforcement learning, neural network, visual sensor, sensory motion]
[14]柴田克成, 岡部洋一:
時間軸スムージング学習による局所センサ信号の統合と空間情報の抽出,
日本神経回路学会誌, Vol. 3, No. 3, pp.98-105, 1996. 9
[neural network, temporal smoothing learning, local sensory signal integration, mapping from space to time]

[13]柴田克成, 岡部洋一:
相関情報抽出ネットと空間認識能力の教師なし学習,
日本神経回路学会誌, Vol. 3, No. 1, pp.11-16, 1996. 5
[correlated information, neural network, spatial recognition, unsupervised learning, mutual information]

[12]K. Shibata and Y. Okabe :
Some Learning Models of Visual System based on Local Sensor Signal Integration Learning,
Proc. of ICNN (Int'l Conf. on Neural Networks) '95 Perth, IV, pp.1986-1990, 1995.11
[neural network, temporal smoothing learning, local sensory signal integration, vestibulo-ocular reflex, head-invariant perception, smooth pursuit]
pdf File (156KB)

[11]K. Shibata, T. Nishino and Y. Okabe :
Active Perception Based on Reinforcement Learning
  Proc. of WCNN (World Congress on Neural Networks) '95 Washington, II, pp. 170-173, 1995.7
[active perception, reinforcement learning, neural network, visual sensor, sensory motion]
pdf file (4 pages, 299KB)]

[10]K. Shibata and Y. Okabe :
Unsupervised Learning Method to Extract Object Locations from Local Visual Signals
  Proc. of ICNN (Int'l Conf. on Neural Networks) '94, Orlando, Vol. 3, pp.1556-1559, 1994.7
[correlated information, neural network, spatial recognition, unsupervised learning, mutual information]
pdf File (119KB)

[9]K. Shibata and Y. Okabe :
A Robot that Learns an Evaluation Function for Acquiring of Appropriate Motions,
Proc. of WCNN (World Congress on Neural Networks) '94 San Diego, Vol.2, pp. II-29 - II-34, 1994. 6
[reinforcement learning, neural network, temporal smoothing learning, mobile robot]
pdf File (6 pages, 284kB)

[8]K. Shibata :
A Neural-Network to get Correlated Information among multiple Inputs
Proc. of IJCNN (Int'l Joint Conf. on Neural Networks) '93 NAGOYA, Vol.3, pp. 2532-2535, 1993.10
[neural network, correlated information, unsupervised learning]
pdf File (4pages, 135kB)

[7]K. Shibata :
Spatial Recognition Model by Extracting Correlated Information between Vision and Motion Information using Neural-Network
Proc. of IJCNN (Int'l Joint Conf. on Neural Networks) '93 NAGOYA, Vol.3, pp.2536-2539, 1993.10
[spatial recognition, neural network, correlated information]
pdf File (4pages, 117kB)

[6] Yuji Sato, et. al:
Development of a High-Performance, General Purpose Neuro-Computer Composed of 512 Digital Neurons,
Proc. of IJCNN (Int'l Joint Conf. on Neural Networks) '93 NAGOYA, Vol.2, 1967-1970, 1993.10
[neuro computer, learning, back propagation(BP), SIMD type parallel computer, broadcast architecture]

[5] Moritoshi. Yasunaga, el. al :
A Self-Learning Digital Neural Network Using Wafer-Scale LSI,
IEEE Journal of Solid-State Circuits, Vol.28, No.2, pp.106-114, 1993.2
[wafer-scale LSI, neuro computer, learning, back propagation(BP), broadcast architecture]

[4] 安永守利,柴田克成,浅井光男,山田稔:
ニューラルネットワーク集積回路の自律的な欠陥救済能力 
電子情報通信学会論文誌 D-I,Vol.J75-D-I,No.11,pp.1099-1108,1992.11
[neural network, fault tolerance, LSI, learning]

[3] Minoru Yamada, et. al:
A Neural Network on Wafer Scale Integrations,
Proc. of the IEEE Int'l Conf. on Wafer-Scale Integration, pp.231- ,1992
[wafer scale integration, neuro computer, learning, back propagation(BP), broadcast architecture]

[2] M. Yasunaga et. al :
A Self-Learning Neural Network Composed of 1152 Digital Neurons in Wafer-Scale LSIs,
   Proc. of IJCNN (Int'l Joint Conf. on Neural Networks) '91 Singapore, Vol.3, pp1844‾1849, 1991.11
[wafer scale integration, neuro computer, learning, back propagation(BP), broadcast architecture]

[1] 柴田克成:バックプロパゲーション法に基づくロボットの学習機能に関する研究
東京大学大学院機械工学専攻修士論文,1989.3



< Papers without Peer Review >

[123] 江島拓哉, 徳丸侑輝, 柴田克成:
リカレントネットにおける感度調整学習時の感度とリアプノフ指数の関係,
第39回計測自動制御学会九州支部学術講演会予稿集, pp.118-121, 2020.11
pdf file (4 pages,790KB)

[122] 吉岡晴海, 松木俊貴, 柴田克成:
感度調整学習を用いたリザバネットの構築,
第39回計測自動制御学会九州支部学術講演会予稿集, pp.122-125, 2020.11
pdf file (4 pages,781KB)

[121] 黒崎耕平, 柴田克成:
カオスニューラルネットを用いた記憶問題の学習における不応性導入の影響,
第39回計測自動制御学会九州支部学術講演会予稿集, pp.126-129, 2020.11
pdf file (4 pages,1.1MB)

[120] 大石将人,松木俊貴, 柴田克成:
リカレントネットによる状態遷移タスクの教師あり学習におけるカオス性の影響,
第39回計測自動制御学会九州支部学術講演会予稿集, pp.156-159, 2020.11
pdf file (4 pages,1.1MB)

[119] 徳丸侑輝, 柴田克成:
リカレントネット内の感度調整によって学習を行う強化学習,
第39回計測自動制御学会九州支部学術講演会予稿集, pp.160-163, 2020.11
pdf file (4 pages,3.4MB)

[118] 松木俊貴, 井上創哉, 柴田克成:
カオスニューラルネットワークの内部ダイナミクスによる探索を用いたQ-learning,
電子情報通信学会信学技報, NC2019-112, pp.207-212, 2020.3
(6 pages)

[117] 長谷部圭亮, 柴田克成:
多層ニューラルネットにおける勾配消失問題解決法としての感度調整学習,
第38回計測自動制御学会九州支部学術講演会予稿集, pp.87-90, 2019.11
pdf file (4 pages,512KB)

[116] 大石将人, 柴田克成:
カオスニューラルネットを用いた記憶タスクの強化学習におけるカオス性の影響,
第38回計測自動制御学会九州支部学術講演会予稿集, pp.83-86, 2019.11
pdf file (4 pages,1.1MB)

[115] 吉岡晴海, 松木俊貴, 柴田克成:
多層リードアウトを持つリザバを用いた強化学習におけるネットワーク構造の検討,
第38回計測自動制御学会九州支部学術講演会予稿集, pp.79-82, 2019.11
pdf file (4 pages,1.2MB)

[114] 徳丸侑輝, 柴田克成:
リカレントネットにおける感度調整学習でのカオスダイナミクスの生成と維持,
第38回計測自動制御学会九州支部学術講演会予稿集, pp.75-78, 2019.11
pdf file (4 pages,814B)

[113] 松木俊貴, 柴田克成:
勾配法による動的なニューロンモデルの時定数の学習,
第37回計測自動制御学会九州支部学術講演会予稿集, 202A3 2018.11
pdf file (4 pages,469KB)

[112] 佐藤克樹, 柴田克成:
カオスベース強化学習への誤差逆伝播法の適用,
第37回計測自動制御学会九州支部学術講演会予稿集, 202A1, 2018.11
pdf file (4 pages,668KB)

[111] 江越正大, 柴田克成:
ニューラルネットワークを使った強化学習による行動学習を通した音声認識機能の創発,
第36回計測自動制御学会九州支部学術講演会予稿集, pp.129-132, 2017.11
pdf file (4 pages,1.7MB)

[110] 佐藤克樹, 後藤祐樹, 柴田克成:
カオスニューラルネットを用いた強化学習における不応性を有するカオスニューロンの導入,
第36回計測自動制御学会九州支部学術講演会予稿集, pp.109-112, 2017.11
pdf file (4 pages,513KB)

[109] 松木俊貴, 柴田克成:
多層リードアウトエコーステートネットを用いた記憶タスクの強化学習,
第36回計測自動制御学会九州支部学術講演会予稿集, pp.101-104, 2017.11
pdf file (4 pages,834KB)

[108] 後藤祐樹, 柴田克成:
カオスニューラルネットを用いた強化学習におけるカオス性の影響,
第36回計測自動制御学会九州支部学術講演会予稿集, pp.97-100, 2017.11
pdf file (4 pages,562KB)

[107] 本木 実, 新谷洋人, 佐々栄治郎, 柴田克成:
SAMスパイキングニューラルネットによる関数近似,
計測自動制御学会 システム・情報部門学術講演会(SSI2017)講演論文集, pp.126-131, 2017.11
[106] 後藤祐樹,柴田克成:
カオスニューラルネットを用いた強化学習における高次探索の創発,
第35回計測自動制御学会九州支部学術講演会予稿集, pp.120-123, 2016.11
pdf file (4 pages,493KB)

[105] 松木俊貴,柴田克成:
カオスニューラルネットの内部ダイナミクスを利用した記憶タスクの報酬に基づく学習,
第35回計測自動制御学会九州支部学術講演会予稿集, pp.124-127, 2016.11
pdf file (4 pages,781KB)

[104] 山本一真,柴田克成:
BPWT を用いたリカレントネットの教師あり学習における相互結合部の重み値の影響,
第35回計測自動制御学会九州支部学術講演会予稿集, pp.128-131, 2016.11
pdf file (4 pages,503KB)

[104] 山本一真,柴田克成:
動的ニューロンモデルを用いたニューラルネットワークへの因果トレースの適用,
第25回インテリジェント・システム・シンポジウム論文集, pp.136-141, 2015.9
pdf file (6 pages,1MB)

[103] 柴田克成,坂下悠太:
カオスニューラルネットを用いた内部ダイナミクス由来の探索に基づく強化学習,
電子情報通信学会技術報告, NC2014-117, pp.277-282, 2015.3
pdf file (6 pages,649KB)
(お詫び)本論文のデータを生成したシミュレーションに誤りがありました。
間違い箇所を訂正した論文を掲載しております。間違ったデータで論文を提出してしまい,
ご迷惑をお掛け致しましたこと,深くお詫び申し上げます。

[102] 柴田克成:
因果トレース - 並列かつ主観的時間スケールの導入による過去の処理の効率的学習 -,
電子情報通信学会技術報告, NC2013-115, pp.157-162, 2014.3
pdf file (6 pages, 475KB)

[101] 品矢 裕介, 柴田克成:
強化学習によるリカレントニューラルネットワーク内部での振動子創発の可能性,
第32回計測自動制御学会九州支部学術講演会予稿集, pp. 75-78, 2013. 12
pdf file (4 pages, 377KB)

[100] 朱 祺, 柴田克成:
RNNを用いた強化学習によるセンサ信号の時間変化を表すコミュニケーションの創発,
第32回計測自動制御学会九州支部学術講演会予稿集, pp. 71-74, 2013. 12
pdf file (4 pages, 950KB)

[99] 柴田克成, 後藤健太:
予測を要して連続動作を含む柔軟な行動のActor-Q学習による獲得,
第23回インテリジェント・システム・シンポジウム (FAN 2013) 講演論文集, pp. 86-91, 2013. 9
pdf file (6 pages, 762KB)

[98] 柴田克成, 栗崎俊介:
ニューラルネットを用いた強化学習による行動の学習を通した色恒常性の創発,
電子情報通信学会技術報告, NC2012-171, pp.215-220, 2013.3
pdf File (6pages, 2.3MB)

[97] 柴田克成, 笹原冬月:
強化学習による合目的的かつ接地した一方向コミュニケーションの創発,
計測自動制御学会 システム・情報部門学術講演会2012 講演論文集, 3B1-1.pdf, pp. 390-395 , 2012.11
pdf File (6pages, 1.8MB)

[96] 榎修志, 柴田克成:
ニューラルネットを用いた価値関数の学習における微分型トレースの提案,
計測自動制御学会 システム・情報部門学術講演会2012 講演論文集, 3B1-2.pdf, pp. 396-401, 2012.11
pdf File (6pages, 1.3MB)

[95] 沢津橋由人, 柴田克成:
リカレントネットを用いた強化学習における離散的かつ抽象的な状態表現の創発,
計測自動制御学会 システム・情報部門学術講演会2012 講演論文集, 3B1-3.pdf, pp. 402-407, 2012.11
pdf File (6pages, 467KB)

[94] 柴田克成, 後藤健太:
リカレントネットを用いた強化学習による探索行動と多値記憶の創発,
電子情報通信学会技術報告, NC2011-134, pp. 75-80, 2012.3
pdf File (6pages, 533KB)

[93] Ahmad Afif Mohd Faudzi, Katsunari Shibata:
Context-based Word Recognition through a Coupling of Q-Learning and Recurrent Neural Network,
SICE九州支部学術講演会,pp. 155-158, 2011.12
pdf File (6pages, 1.3MB)

[92] 沢津橋由人, 柴田克成:
画像を入力とするニューラルネットの学習における方位選択性入力の付加,
SICE九州支部学術講演会,pp. 151-154, 2011.12
pdf File (6pages, 6.4MB)

[91] 田口優馬, 柴田克成:
リカレントネットによる内部状態遷移を要する問題学習時の初期重み値の影響,
SICE九州支部学術講演会,pp. 87-90, 2011.12
pdf File (6pages, 70KB)

[91] 柴田克成:
あめとむちで知能を作る? ー知能ロボットって本当に賢いの?ー,
SOFT九州支部夏季ワークショップ(招待講演), 2011.9

[90] 柴田克成, 沢津橋由人, 宇都宮浩樹:
強化学習によるパターンの意味付けと記憶に基づく行動の獲得,
SICE九州支部学術講演会,pp. 243-246, 2010.12
pdf File (4 pages, 1MB)

[89] 高津聡志, 柴田克成:
強化学習とリカレントネットを用いた並列で柔軟な学習制御システムの枠組み,
SICE九州支部学術講演会,pp. 137-140, 2010.12
pdf File (4 pages, 426KB)

[88] Armad Afif bin Mohd Faudi, 柴田克成:
可動カメラを用いたActor-Q学習による能動認識の学習,
SICE九州支部学術講演会,pp. 239-242, 2010.12
pdf File (4 pages, 1.3MB)

[87] 柴田克成:
ニューラルネットを用いた強化学習による空間情報の抽象化と知識継承,
SICE九州支部学術講演会,pp. 75-78, 2009.12
pdf File (4 pages, 740kB)

[86] 後藤健太,松本康生,柴田克成:
リカレントニューラルネットを用いた強化学習による予測機能の創発,
SICE九州支部学術講演会, pp. 81-84, 2009.12
pdf File (4 pages, 164kB)

[85] 笹原冬月,柴田克成:
ニューラルネットと強化学習を用いた音声によるコミュニケーションの自律学習,
SICE九州支部学術講演会, pp. 85-88, 2009.12
pdf File (4 pages, 204kB)

[84] 柴田克成, 河野友彦:
強化学習により対象物検出行動を学習した画像入力ニューラルネットにおける中間層ニューロンの解析,
第18回インテリジェント・システム・シンポジウム(FAN 2008), pp. 145-150, 2008.11
pdf File (6 pages, 520kB)

[83] 後藤健太, 柴田克成:
リカレントネットを用いた強化学習による記憶を利用した探索行動の学習,
第61回電気関係学会九州支部連合大会講演論文集, CD-ROM, 2008.9
pdf File (2 pages, 52kB)

[82] 河野友彦, 幸和芳, 柴田克成:
画像入力ニューラルネットを用いた強化学習による可動カメラの対象物検出行動,
第26回計測自動制御学会九州支部学術講演会予稿集, pp. 155-158, 2007.12
pdf File (4 pages, 100kB)

[81] Mohamad Faizal Bin Samsudin, 廣瀬武志, 柴田克成:
リカレント型ニューラルネットの実用的な学習則である離散時間PRL学習法,
第26回計測自動制御学会九州支部学術講演会予稿集, pp. 57-60, 2007.12
pdf File (4 pages, 172kB)

[80] 山崎高志, 柴田克成:
複数の隠れニューロンの生成が可能な成長型ニューラルネットの構築,
第26回計測自動制御学会九州支部学術講演会予稿集, pp. 53-56, 2007.12
pdf File (4 pages, 368kB)

[79] Katsunari Shibata, Shinya Ishii and Munetaka Shidara:
The reason for the emergence of reward expectancy neurons suggested by a model using reinforcement learning and an artificial neural network,
Neuroscience2006 第29回日本神経科学大会, 京都, 2006. 7

[79] 菊池健児,井上正文,田中 充,井上高教,柴田克成,江崎忠男:
大分大学工学部におけるGPA 制度の現状と課題,
(社)日本工学教育協会第54回年次大会, 7-215, 20006. 7

[78] 柴田克成:
あめとむちだけでどこまで賢くなれるのか? - 強化学習による知能創発の説明の試み -,
つくばブレインサイエンスセミナー, 筑波大学, 2005.12.13

[77] 柴田克成:
強化学習による探索行動の学習,
計測自動制御学会システム・情報部門学術講演会2005講演論文集, pp. 11-16, 2005. 11
pdf File (6 pages, 592kB)

[76]Shinya Ishii, Munetaka Shidara and Katsunari Shibata
An Explanation of Emergence of Reward Expectancy Neurons Using Reinforcement Learning and Neural Net,
Fourteenth Annual Computational Neuroscience Meeting (CNS*2005), Madison, 2005. 7

[75] Katsunari Shibata:
Does Intelligence Emerge only by Carrots and Sticks?,
AI Seminar, Dept. of Computing Science, University of Alberta, 2005. 4

[74]幸和芳, 柴田克成:
多入力ニューラルネットの学習過程における中間層ニューロン数の影響,
第23回計測自動制御学会九州支部学術講演会予稿集, pp. 369-372, 2004.12
pdf File (6 pages, 1.64MB)

[73]石井慎也, 設楽宗孝, 柴田克成:
強化学習とニューラルネットを用いた報酬期待ニューロンの発現モデル,
第23回計測自動制御学会九州支部学術講演会予稿集, pp. 305-308, 2004.12

[72]藤田剛, 柴田克成:
リカレントネットを用いた強化学習によるロボットの記憶に基づいた行動の学習,
第23回計測自動制御学会九州支部学術講演会予稿集, pp.37-40, 2004.12

[71]仲西賢展, 柴田克成:
Q学習に基づく一方向コミュニケーションの創発における行動選択の影響,
システム・情報部門学術講演会2004講演論文集, pp. 157-162, 2004. 11
pdf File (6 pages, 500KB)

[70]石井慎也, 設楽宗孝, 柴田克成:
報酬期待ニューロンの強化学習による発現モデル,
システム・情報部門学術講演会2004講演論文集, pp.63-68, 2004. 11

[69]柴田克成, 飯田大:
視覚センサ付き実ロボットによる箱押し行動の獲得  - 強化学習によるセンサ−モータ間トータル機能獲得への第一歩 -,
第14回インテリジェント・システム・シンポジウム(FAN Symposium)講演論文集, pp. 123-128, 2004.10
pdf File (6 pages, 1.64MB)

[68]柴田克成:
コミュニケーションの強化学習におけるノイズ付加による連続値信号の離散化,
電子情報通信学会技術研究報告, Vol. 103, No. 734, NC2003-203, pp. 55-60, 2004. 3
pdf File (6 pages, 204kB)

[68]栗野竜輔, 柴田克成:
隠れニューロンの分離を伴う成長型ニューラルネットワーク,
電子情報通信学会技術研究報告, Vol. 103, No. 734, NC2003-212, pp. 109-114, 2004. 3
pdf File (6 pages, 1.08MB)

[67]柴田克成, 宮本沢巳:
メモリQ学習 −強化学習による選択的記憶の獲得−,
第22回計測自動制御学会九州支部学術講演会予稿集, pp. 57-60, 2003.11
pdf File (4 pages, 422kB)

[66]仲西賢展, 杉坂政典, 柴田克成:
強化学習に基づくコミュニケーションの発現と伝達情報の解析,
第22回計測自動制御学会九州支部学術講演会予稿集, pp. 71-74, 2003.11
pdf File (4 pages, 356KB)

[65]幸和芳, 杉坂政典, 柴田克成:
Direct-Vision-Based強化学習によるカラー物体到達の学習と内部表現,
第22回計測自動制御学会九州支部学術講演会予稿集, pp. 65-68, 2003.11

[64]柴田克成:
あめとむちによる知能形成への挑戦 −強化学習の潜在能力を引き出す−,
産総研セミナー, 2003. 9

[63]柴田克成:
強化学習によるコミュニケーションの創発,
第31回自律分散システム部会研究会, 2003. 6

[62]柴田克成:
遅延注意課題における文脈依存的注意のリカレントニューラルネットによる獲得,
科学技術振興調整費「文脈主導型、認識・判断・行動機能実現のための動的記憶機構の研究」 2002公開シンポジウム招待講演, 2002.12

[61]柴田克成:
強化学習によって獲得された手先のリーチング運動における軌跡と速度履歴,
第21回計測自動制御学会九州支部学術講演会予稿集, pp. 241--244, 2002.12

[60]飯田大, 杉坂政典, 柴田克成:
Direct-Vision-Based強化学習による小型CCDカメラ付き移動ロボットの行動獲得,
第21回計測自動制御学会九州支部学術講演会予稿集, pp. 109--112, 2002.12

[59]清祐大樹, 杉坂政典, 柴田克成:
強化学習における身体成長効果の単純起き上がり問題での検証,
第21回計測自動制御学会九州支部学術講演会予稿集, pp. 229--232, 2002.12
pdf file (4 pages, 283KB)

[58]栗野竜輔, 杉坂政典, 柴田克成:
成長型ニューラルネットによる2層構造の獲得,
第21回計測自動制御学会九州支部学術講演会予稿集, pp. 245--248, 2002.12

[57]柴田克成, 真崎勉:
多人数ゲームにおける報酬分配学習,
計測自動制御学会 システム・情報部門学術講演会2002 講演論文集, pp. 15--20, 2002.11.
pdf File (6 pages, 292kB)

[56]柴田克成, 前原伸一, 伊藤宏司:
Gauss-Sigmoidニューラルネット,
計測自動制御学会 システム・情報部門学術講演会2002 講演論文集, pp. 467--472, 2002.11.

[55]柴田克成:
強化学習とロボットの知能 -あめとむちで知能は作れるか?-,
第16回人工知能学会全国大会論文集, パネルディスカッション「強化学習とその諸相」パネリスト原稿, 2A1-05, 2002.5
pdf File (2 pages, 33kB)

[54]柴田克成, 伊藤宏司:
局所信号を入力としたニューラルネットにおける中間層での適応的空間再構成と汎化, 電子情報通信学会技術研究報告, NC2001-152, pp. 151-158, 2002.3
pdf File (8 pages, 197kB)

[53]前原伸一, 杉坂政典, 柴田克成:
移動物体の捕獲行動学習におけるセンサ動作の必要性,
電子情報通信学会技術研究報告, NC2001-153, pp. 159-166, 2002.3

[52]飯田大, 杉坂政典, 柴田克成:
Direct-Vision-Based強化学習による実移動ロボットの行動学習,
電子情報通信学会技術研究報告, NC2001-154, pp.167-174, 2002.3

[51]柴田克成, 岡部洋一, 伊藤宏司:
ニューラルネットを用いた強化学習 -センサからモータまでの合目的的・調和的学習-,
計測自動制御学会情報・システム部門学術講演会2001, pp.227-232, 2001. 11.
pdf File (6 pages, 185kB)

[50]前原伸一, 杉坂政典, 柴田克成:
移動物体の捕獲行動学習におけるセンサ動作の必要性,
計測自動制御学会情報・システム部門学術講演会2001, pp. 13-18, 2001. 11.

[49]飯田大, 杉坂政典, 柴田克成:
Direct-Vision-Based強化学習による実移動ロボットの行動学習,
計測自動制御学会情報・システム部門学術講演会2001, pp. 7-12, 2001. 11.

[48]柴田克成, 杉坂政典:
報酬に基づく選択的注意の学習による文脈の抽出と連想,
平成13年度電気関係学会九州支部連合大会講演論文集, pp. 98, 2001. 10.

[47]前原伸一, 柴田克成, 杉坂政典:
強化学習によるGauss-Sigmoidニューラルネットの大域的情報表現の獲得,
平成13年度電気関係学会九州支部連合大会講演論文集, pp. 693, 2001. 10.
pdf File (1 page, 78kB)

[46]飯田大, 杉坂政典, 柴田克成:
Direct-Vision方式による実移動ロボットの物体追従学習,
平成13年度電気関係学会九州支部連合大会講演論文集, pp. 58, 2001. 10.

[45]柴田克成, 杉坂政典, 伊藤宏司:
強化学習によるリーチング動作の獲得,
電子情報通信学会技術研究報告, NC2000-170, pp. 107-114, 2001. 3.
pdf File (8 pages, 318kB)

[44]前原伸一, 杉坂政典, 柴田克成:
連続値入力強化学習におけるGauss-Sigmoidニューラルネットの有効性,
電子情報通信学会技術研究報告, NC2000-166, pp. 75-82, 2001. 3.
pdf File (6 pages,1MB)

[43]柴田克成, 前原伸一, 杉坂政典, 伊藤宏司:
Gauss-Sigmoid ニューラルネットワーク,
第12回自律分散システムシンポジウム資料, pp.133-138, 2001.1
pdf File (6 pages, 260kB)

[42]柴田克成, 杉坂政典, 伊藤宏司:
マルチエージェント強化学習における報酬配分の自律的学習,
第19回計測自動制御学会九州支部大会学術講演会予稿集, pp.483-486, 2000.11
pdf File (4 pages, 171kB)

[41]前原伸一, 杉坂政典, 柴田克成:
Gauss-Sigmoidニューラルネットワークを用いた強化学習の安定性,
第19回計測自動制御学会九州支部大会学術講演会予稿集, pp.475-478, 2000.11
pdf File (4 pages, 106KB)

[40]森田聡, 柴田克成, 鄭心知, 伊藤宏司:
トルク推定に基づく筋電義手の動作制御,
日本機械学会年次大会講演論文集(I), pp. 375-376, 2000.8.

[39]内田宗恒, 柴田克成, 鄭心知, 伊藤宏司:
力学モデルによるエネルギー蓄積型大腿義足のパラメータ調節,
日本機械学会年次大会講演論文集(I), pp. 379-380, 2000.8.

[38]柴田 克成, 伊藤 宏司:
認識の学習に基づく注意と連想記憶の形成,
電子情報通信学会技術研究報告, NC99-137, pp. 153-160, 2000. 3.
pdf File (8 pages, 103kB)

[37]内田宗恒, 柴田克成, 鄭心知, 伊藤宏司:
エネルギー蓄積型大腿義足の力学的解析と制御,
電子情報通信学会技術研究報告, MBE99-171, pp. 61-66, 2000.3.

[36]森田 聡, 柴田克成, 鄭心知, 伊藤宏司:
ニューラルネットワークを用いた人間−筋電義手インタフェース,
電子情報通信学会技術研究報告, MBE99-167, pp. 37-42, 2000.3.

[35]柴田 克成, 伊藤 宏司:
Direct-Vision-Based 強化学習に基づく Hand-Eye Coordination の形成,
第12回自律分散システム・シンポジウム資料, pp. 217 - 222, 2000.1.
pdf File (6 pages, 470kB)

[34]Edwardo Arata Y. Murakami, 柴田克成, 鄭心知, 伊藤宏司:
人間の動作特性を考慮したバイラテラル・マイクロテレオペレーション
第12回自律分散システム・シンポジウム資料, pp.447-452, 2000.1.

[33]山上拓見, 小島一浩, 柴田克成, 鄭心知, 伊藤宏司:
環境変動下における四足歩行パターンの生成と遷移,
第12回自律分散システム・シンポジウム資料, pp.493-496, 2000.1.

[32]内田宗恒, 柴田克成, 鄭心知, 伊藤宏司:
エネルギー蓄積型大腿義足の力学的解析と制御,
第20回バイオメカニズム学術講演会(SOBIM'99)講演予稿集,1999.11.

[31]森田 聡, 柴田克成, 鄭心知, 伊藤宏司:
義手インタフェースの制御工学的考察:EMG処理と義手制御,
第20回バイオメカニズム学術講演会(SOBIM'99)講演予稿集,1999.11.

[30]山上拓見, 小島一浩, 柴田克成, 鄭心知, 伊藤宏司:
CPGに基づく四足歩行パターンの生成と遷移,
第20回バイオメカニズム学術講演会(SOBIM'99)講演予稿集,1999.11.

[29]E.A.Y. Murakami, 柴田克成, 鄭心知, 伊藤宏司:
双方向マイクロマニピュレーションにおける人間の動作特性,
第20回バイオメカニズム学術講演会(SOBIN'99)講演予稿集, 1999.11

[28] 鄭心知, 稲村渡, 柴田克成, 伊藤宏司:
ロボットバッティング制御系 --学習アーキテクチャと動的パターン生成--,
第17回日本ロボット学会学術講演会予稿集, pp.871, 1999. 9

[27] 柴田克成, 伊藤宏司:
2エージェント強化学習における報酬分配の自律学習,
ロボティクス・メカトロニクス講演会 (ROBOMEC'99), 1999. 6

[26] 稲村渡, 鄭心知, 柴田克成, 伊藤宏司:
繰り返し動作における冗長マニピュレータの作業技能形成と制御,
ロボティクス・メカトロニクス講演会 (ROBOMEC'99), 1999. 6

[25] 柴田克成,伊藤宏司:
利害の衝突回避のための交渉コミュニケーションの学習と個性の発現,
第11回自律分散システムシンポジウム資料, pp. 303-308, 1999.1
pdf File (6pages 199KB in Japanese), PS file (6pages 218KB in Japanese)

[24] 西岡忠相,柴田克成,伊藤宏司:
モデル型TD強化学習による動的環境での行動獲得,
第11回自律分散システムシンポジウム資料, pp. 285-288, 1999.1

[23] 上田雅英,柴田克成,伊藤宏司:
マルチエージェント系における個性・社会性の学習的生成,
第11回自律分散システムシンポジウム資料, pp. 299-302, 1999.1

[22] 西岡忠相,柴田克成,伊藤宏司:
動的環境における移動ロボットの行動獲得,
第16回日本ロボット学会学術講演会予稿集, Vol. 1, pp. 331-332,1998.9

[21] 柴田克成,伊藤宏司,岡部洋一:
ニューラルネットに基づく強化学習による汎化方向の適応的変化,
ロボティクス・メカトロニクス講演会'98 講演論文集, 1CII2-1, 1998.6

[20]柴田克成,西野哲生,岡部洋一:
強化学習とニューラルネットの組み合わせによる視覚情報処理の自律的学習,
創発システム公開シンポジウム, 1997.12

[19] 柴田克成,岡部洋一,伊藤宏司:
短期記憶のためのリカレントネット簡易学習則の基本構想,
日本神経回路学会第8回全国大会講演論文集, pp. 224--225, 1997.11
(pdf File 183kB A4 2 pages in Japanese), (PSfile(gzip) 78kB A4 2 pages in Japanese)

[18] 柴田克成,岡部洋一:
ニューラルネットによる視覚入力強化学習,
第15回日本ロボット学会学術講演会予稿集, Vol. 3, pp.897-898, 1997.9

[17] 柴田克成,岡部洋一:
相関情報抽出ニューラルネットによる複数次元情報抽出の学習,
ロボティクス・メカトロニクス講演会'97, Vol. B, pp.783-784, 1997.6

[16] 西野哲男,柴田克成,岡部洋一:
遅延強化信号による視点移動の学習,
電子情報通信学会技術研究報告,NC-96-135, pp. 171-178,1997.3

[15] 柴田克成,岡部洋一:
時間軸スムージング学習と局所センサ信号の統合,
日本神経回路学会第7回全国大会論文予稿集,pp. 178-179,1996.9
pdf File (188kB in Japanese), PS File (110kB in Japanese)

[14] 柴田克成,岡部洋一:
視覚センサ信号を入力とした遅延強化学習,
日本神経回路学会第7回全国大会論文予稿集,pp. 144-145,1996.9
pdf File (2 pages, 219kB in Japanese), PS File (2 pages, 109kB in Japanese)

[13] 柴田克成:
局所センサ情報統合化学習に基づく視覚システムの学習モデル,
科研費重点領域「脳高次処理」冬のワークショップ,1996. 1

[12] 柴田克成,岡部洋一:
相関情報抽出ネットによるステレオ画像上物体の奥行き情報抽出の教師なし学習,
日本神経回路学会第6回全国大会論文予稿集,pp. 231-232,1995.10
pdf File (2pages, 159KB, in Japanese) , PS File (2pages, 65KB, in Japanese)

[11] Y. Okabe et. al :
Application of Moderationism to a Non-Linear Environment,
RWC Conf. '95, 1995. 6

[10] 柴田克成:
遅延強化学習に基づくロボットの運動学習と局所センサ情報の統合化学習,
科研費重点領域「脳高次処理」冬のワークショップ,1995. 1

[9] 柴田克成,西野哲男,岡部洋一:
強化学習に基づく能動認識,
日本神経回路学会第5回全国大会論文予稿集,pp. 82-83,1994.11
[pdf file (2 pages, 127kB in Japanese)] , [PS file (2 pages, 38kB in Japanese)]

[8] 西野哲男,柴田克成,岡部洋一:
強化学習による視点移動の学習,
日本神経回路学会第5回全国大会論文予稿集,pp. 84-85,1994.11

[7] Y. Okabe et. al :
Formation of Reflex Arc by Feedback Learning,
RWC Conf. '94, RWC Technical Report, TR-94001, pp.133-134, 1994. 6

[6] 安永守利,柴田克成,浅井光男,山田稔:
ウェハースケールニューラルネット集積回路の自律的な欠陥救済能力
1993年電子情報通信学会春期大会,SD-8-2,1993.3

[5] 坂口隆宏,他7名:
高速学習型デジタルニューロWSIの設計評価
1992年電子情報通信学会春期大会,pp5-195,1992.5

[4] 柴田克成:
ニューラルネットによる目的達成動作の能動的学習
1991年電子情報通信学会秋季大会,pp6-304‾305,1991.9
[pdf file (2 pages, 337kB in Japanese)]

[3] 柴田克成,他8名:
高速学習型ニューロWSIのシステム設計
電子情報通信学会技術研究報告,CPSY90-71,ICD90-127,1990.10

[2] 浅井光男,他5名:高速学習型ニューロWSI
電子情報通信学会技術研究報告,NC90-12,1990.5

[1] 柴田克成,稲葉雅幸,井上博允:
ニューラルネットによるロボットの運動学習
第6回日本ロボット学会学術講演会予稿集,pp141‾142,1988.10
[pdf file (2 pages, 859kB in Japanese)]


< Report >

[2]柴田克成:
強化学習によるロボットの諸機能の自律的、調和的、合目的的獲得と知能形成,
平成15年度〜平成18年度科学技術研究費補助金(基盤研究(B))研究成果報告書, 2007.5

[1]柴田克成, 西野哲生, 岡部洋一:
センサからモータまで強化学習だけで学習できるか? -時間軸スムージング学習と Direct-Vision-Based 強化学習-,
科研費重点領域「創発的機能形成のシステム理論」研究成果報告書, pp. 327-334, 1999.1


< Master Theses in Our Lab. >

[34]大石 将人:
カオスニューラルネットワークを用いた状態遷移の学習に関する研究
令和2年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2021. 3

[33]黒崎 耕平:
教師あり学習を適用したカオスニューラルネットにおけるカオス的遍歴の観察
令和2年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2021. 3

[32]徳丸 侑輝:
ダイナミック強化学習の提案と検証
令和2年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2021. 3

[31]吉岡 晴海:
感度調整学習を用いたリザバダイナミクスの維持と学習
令和2年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2021. 3

[30]長谷部 圭亮:
ニューラルネットの勾配消失問題の解決法としての感度調整学習
平成31年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2020. 3

[29]佐藤 克樹:
カオスベース強化学習における 誤差逆伝播法の適用と不応性の導入
平成30年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2019. 3

[28]江越 正大:
End-to-End強化学習アプローチによる行動の学習を通した音声認識機能の創発
平成29年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2018. 3

[27]後藤 祐樹:
カオスニューラルネットを用いた新しい強化学習の確立に向けた基盤研究
平成29年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2018. 3

[26]山本 一真:
リカレントネットのリアルタイム誤差逆伝搬学習BPWTの提案と改善
平成28年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2017. 3

[25]品矢 裕介:
強化学習を行うリカレントネットにおける合目的な非固定点収束ダイナミクスの形成
平成25年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2014. 3

[24]朱 祺<:BR> リカレントネットを用いた強化学習による動詞コミュニケーションの創発
平成25年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2014. 3

[23]榎 修志:
ニューラルネットを用いた強化学習における微分型トレースの提案
平成24年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2013. 3

[22]沢津橋 由人:
連続値入力タスクにおける強化学習を用いた離散的かつ抽象的な状態表現の獲得
平成24年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2013. 3

[21]AHMAD AFIF BIN MOHD FAUDZI:
Acquisition of Context-based Word Recognition by Reinforcement Learning Using a Recurrent Neural Network
平成23年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2012. 3

[20]田口 優馬:
リカレントネットによる離散状態遷移学習時の連続時間モデルの導入と初期重み値の影響
平成23年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2012. 3

[19]笹原 冬月:
強化学習を用いた一方向コミュニケーションの効果的学習方法の研究
平成22年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2011. 3

[18]後藤 健太:
リカレントニューラルネットを用いた強化学習による予測機能の創発
平成22年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2011. 3

[17]高津 聡志:
強化学習とリカレントネットを用いた並列かつ柔軟な学習制御システムの枠組み
平成21年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2010. 3

[16]宇都宮 浩樹:
強化学習による画像中のパターンの自律的な意味付けと記憶に基づく行動の獲得
平成21年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2010. 3

[15]山崎 高志:
連続値入出力と大規模化のための成長型ニューラルネット
平成20年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2009. 3

[14]MOHAMAD FAIZAL BIN SAMSUDIN:
Improvements of Learning Ability in the Practical Recurrent Learning Method and Application to Some Tasks
平成20年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2009. 3

[13]河野 友彦:
画像入力型ニューラルネットを用いた強化学習による柔軟な画像認識能力の獲得
平成19年度大分大学大学院博士前期課程工学研究科電気電子工学専攻修士論文, 2008. 3

[12]石井 慎也:
強化学習とニューラルネットを用いたモデルによる報酬期待ニューロンの発現理由の究明
平成17年度大分大学大学院工学研究科電気電子工学専攻修士論文, 2006. 3

[11]廣瀬 武志:
離散時間実用的リカレントネット学習(PRL)法における学習性能改善の研究
平成17年度大分大学大学院工学研究科電気電子工学専攻修士論文, 2006. 3

[10]藤田 剛:
強化学習における状態評価値の逐次調整に基づく適応的な一様探索行動の研究
平成17年度大分大学大学院工学研究科電気電子工学専攻修士論文, 2006. 3

[9]仲西 賢展:
Q学習に基づく一方向コミュニケーション学習における学習効率化手法の提案
平成16年度大分大学大学院工学研究科電気電子工学専攻修士論文, 2005. 3

[8]幸 和芳:
疑似実環境における視覚付き実移動ロボットを用いた強化学習
平成16年度大分大学大学院工学研究科電気電子工学専攻修士論文, 2005. 3

[7]栗野 竜輔:
隠れニューロンを含む成長型ニューラルネットワーク,
平成15年度大分大学大学院工学研究科電気電子工学専攻修士論文, 2004. 3

[6]飯田 大:
三次元情報を要するタスクにおける視覚付き実移動ロボットを用いた強化学習,
平成14年度大分大学大学院工学研究科電気電子工学専攻修士論文, 2003. 3

[5]清祐 大樹:
強化学習における身体成長効果の提案と起きあがり問題での検証,
平成14年度大分大学大学院工学研究科電気電子工学専攻修士論文, 2003. 3

[4]前原 伸一:
移動物体捕獲行動学習におけるセンサ動作の必要性,
平成13年度大分大学大学院工学研究科電気電子工学専攻修士論文, 2002. 3

[3]上田 雅樹:
マルチエージェント系における個性・社会性の学習的生成,
平成10年度東京工業大学大学院総合理工学研究科知能システム科学専攻修士論文, 1999. 3

[2]西岡 忠相:
モデル型TD強化学習による動的環境での行動獲得,
平成10年度東京工業大学大学院総合理工学研究科知能システム科学専攻修士論文, 1999. 3

[1]西野 哲生:
遅延強化信号による視点移動の学習
平成8年度東京大学大学院工学系研究科電気電子工学専攻, 1997. 3


< Graduation Theses in Our Lab. >

[89]上谷 真唯:
ダイナミック学習による記憶を必要とするタスクの教師あり学習
令和2年度大分大学工学部電気電子工学科卒業論文, 2021.3

[88]宇野 竹莉:
多層リードアウトリザバによるカオスQ-learning
令和2年度大分大学工学部電気電子工学科卒業論文, 2021.3

[87]姫野 匠:
リカレントネットにおけるフィードバック重み値行列の固有値分布が学習に及ぼす影響
令和2年度大分大学工学部電気電子工学科卒業論文, 2021.3

[86]山田 敦貴:
アトラクタを形成したカオスニューラルネットのダイナミクスの詳細解析
令和2年度大分大学工学部電気電子工学科卒業論文, 2021.3

[85]庄司 光希:
不応性を導入したカオスニューラルネットにおける振動子間のカオス的遍歴の観察
令和2年度大分大学工学部電気電子工学科卒業論文, 2021.3

[84]一政 裕也:
リカレントネットのフィードバック重み値によるカオス性と学習性能の変化
平成31年度大分大学工学部電気電子工学科卒業論文, 2020.3

[83]江島 拓哉:
リカレントネットにおける感度調整学習時の感度とリアプノフ指数の関係
平成31年度大分大学工学部電気電子工学科卒業論文, 2020.3

[82]緒方 基稀:
感度調整学習を用いた多層ニューラルネットでの連続関数学習
平成31年度大分大学工学部電気電子工学科卒業論文, 2020.3

[91]恒吉 杜紘:
リカレントネットの結合割合によるダイナミクスの変化
平成31年度大分大学工学部電気電子工学科卒業論文, 2020.3

[80]松矢 直樹:
カオスニューラルネットにおける埋め込み振動子間の遷移の観察
平成31年度大分大学工学部電気電子工学科卒業論文, 2020.3

[79]井上 創哉:
カオスニューラルネットを用いたQ学習によるゴールタスクの学習
平成31年度大分大学工学部電気電子工学科卒業論文, 2020.3

[78]大石 将人:
カオスニューラルネット上でのBPTTを用いた記憶タスクの強化学習
平成30年度大分大学工学部電気電子工学科卒業論文, 2019.3

[77]加藤 将斗:
ニューラルネットを用いた 強化学習における 乱数付加位置の学習への影響
平成30年度大分大学工学部電気電子工学科卒業論文, 2019.3

[76]徳丸 侑輝:
リカレントネットに対するカオスダイナミクス生成学習の提案と検証
平成30年度大分大学工学部電気電子工学科卒業論文, 2019.3

[75]永山 英太:
誤差逆伝播法を用いた強化学習における教師信号生成方法の違いによる学習の比較
平成30年度大分大学工学部電気電子工学科卒業論文, 2019.3

[74]吉岡 晴海:
リザバを用いた強化学習における多層リードアウト部の最適化
平成30年度大分大学工学部電気電子工学科卒業論文, 2019.3

[73]黒崎 耕平:
カオスニューラルネットワークの教師あり学習における固定点アトラクタの発現
平成30年度大分大学工学部電気電子工学科卒業論文, 2019.3

[72]羽田 祥平:
ReTh関数を用いたリカレントネットの学習と発火率コントロールの導入
平成30年度大分大学工学部電気電子工学科卒業論文, 2019.3

[71]有角 涼馬:
記憶課題の教師あり学習によるカオスニューラルネット内のダイナミクスの変化
平成29年度大分大学工学部電気電子工学科卒業論文, 2018.3

[70]尾崎 貴太:
リカレントニューラルネットにおける活性化関数としてのReTh関数の有用性の検討
平成29年度大分大学工学部電気電子工学科卒業論文, 2018.3

[69]小山 裕史:
カオスニューラルネットを用いた強化学習と乱数付加型の強化学習の比較
平成29年度大分大学工学部電気電子工学科卒業論文, 2018.3

[68]榊原 誠史:
ゲーティングネットによるリザバーネット出力の切り替え学習
平成29年度大分大学工学部電気電子工学科卒業論文, 2018.3

[67]長谷部 圭亮:
リカレントネットを用いた音声認識学習における教師信号付与タイミングの影響
平成29年度大分大学工学部電気電子工学科卒業論文, 2018.3

[66]牧村 恭明:
リザバーネットを用いた強化学習における探索成分の分離と学習への利用
平成29年度大分大学工学部電気電子工学科卒業論文, 2018.3

[65]野川 昌嵩:
ニューラルネットを用いた強化学習によるロボットとカメラの動作の同時学習
平成29年度大分大学工学部電気電子工学科卒業論文, 2018.3

[64]佐藤克樹:
カオスニューラルネットワークを用いた強化学習における不応性を有するカオスニューロンの導入
平成28年度大分大学工学部電気電子工学科卒業論文, 2017. 3

[63]Dahlan Bin Abdullah Sani:
Effectiveness of Half-sigmoid as Neuron Activation Function in Neural Network
平成28年度大分大学工学部電気電子工学科卒業論文, 2017. 3

[62]江越 正大:
深層学習フレームワークを用いた時系列データ認識の教師あり学習
平成27年度大分大学工学部電気電子工学科卒業論文, 2016. 3

[61]後藤 祐樹:
カオスニューラルネットを用いた強化学習における高次探索の創発
平成27年度大分大学工学部電気電子工学科卒業論文, 2016. 3

[60]道地 志門:
リカレントネットのリアルタイム学習BPWTの基礎検討
平成27年度大分大学工学部電気電子工学科卒業論文, 2016. 3

[59]屋代 原野:
ニューラルネットを用いたルービックキューブのQ学習による抽象的内部表現の創発
平成27年度大分大学工学部電気電子工学科卒業論文, 2016. 3

[58]Ahmad Syazili bin Mazlan:
Supervised Learning of The Time Constant for Each Neuron in a Neural Network
平成27年度大分大学工学部電気電子工学科卒業論文, 2016. 3

[57]飯倉 大輔:Haar-like特徴とAdaboostアルゴリズムを用いた手の検出器の構築
平成27年度大分大学工学部電気電子工学科卒業論文, 2016. 3

[56]柿添 健太:農作業ロボットにおける小型PCを用いた画像処理システムの構築
平成27年度大分大学工学部電気電子工学科卒業論文, 2016. 3

[55]大和 慎吾:LBP特徴を用いて自動車検出を行う監視カメラシステムの構築
平成27年度大分大学工学部電気電子工学科卒業論文, 2016. 3

[54]渡邊 梓:SIFT特徴量を用いた葡萄認識システムの構築
平成27年度大分大学工学部電気電子工学科卒業論文, 2016. 3

[53]山本 一真:
動的ニューロンモデルを用いたニューラルネットワークへの因果トレースの適用
平成26年度大分大学工学部電気電子工学科卒業論文, 2015. 3

[52]坂下 悠太:
探索に乱数を用いないカオスニューラルネットワークによる自律的動作学習
平成26年度大分大学工学部電気電子工学科卒業論文, 2015. 3

[51]財田 康弘:
画像信号を入力とした強化学習による離散的かつ抽象的な状態表現の獲得に向けた研究
平成26年度大分大学工学部電気電子工学科卒業論文, 2015. 9

[50]植山 貴文:
入力層ニューロンとの局所初期結合が学習に与える影響と内部表現の違い
平成25年度大分大学工学部電気電子工学科卒業論文, 2014. 3

[49]岡崎 詳:
因果トレースを用いた強化学習における学習過程の解析
平成25年度大分大学工学部電気電子工学科卒業論文, 2014. 3

[48]木下 大樹:
リカレントネットを用いたパターン認識の学習により形成されるダイナミクスの研究
平成25年度大分大学工学部電気電子工学科卒業論文, 2014. 3

[47]橋本 伸司:
リカレントネットのフィードバックパターンによる学習性能と内部表現の比較
平成24年度大分大学工学部電気電子工学科卒業論文, 2013. 3

[46]江草 祥二:
3ニューロンネットにおける誤差伝播時に微分を導入した自励振動の教師あり学習
平成24年度大分大学工学部電気電子工学科卒業論文, 2013. 3

[45]塩月 天祐:
微分型ヘブ学習を用いた自励振動の教師なし学習
平成23年度大分大学工学部電気電子工学科卒業論文, 2012. 3

[44]関 皓介:
リカレントニューラルネットの学習における初期重み値の学習性能への影響
平成23年度大分大学工学部電気電子工学科卒業論文, 2012. 3

[43]平松 吾郎:
ニューラルネットへの画像入力の与え方による学習難易度変化の要因の解明
平成23年度大分大学工学部電気電子工学科卒業論文, 2012. 3

[42]藤井 伸行:
リカレントネットを用いた復唱タスクの学習によって獲得された記憶・再生方法の解析
平成23年度大分大学工学部電気電子工学科卒業論文, 2012. 3

[41]沢津橋 由人:
画像入力強化学習におけるエッジ情報入力による汎化能力の向上
平成22年度大分大学工学部電気電子工学科卒業論文, 2011. 3

[40]栗崎 俊介:
ニューラルネットワークを用いた強化学習による色恒常性機能の創発
平成22年度大分大学工学部電気電子工学科卒業論文, 2011. 3

[39]河野 修平:
リカレントニューラルネットの多層化と初期重み値による学習能力への影響
平成22年度大分大学工学部電気電子工学科卒業論文, 2011. 3

[38]榎 修志:
Eligibility-traceを用いた強化学習における学習速度の向上
平成22年度大分大学工学部電気電子工学科卒業論文, 2011. 3

[37]田中 昭次:
マルチエージェント強化学習における相互競争による能力向上の検討
平成22年度大分大学工学部電気電子工学科卒業論文, 2011. 3

[36]堀内 加奈江:
筋電位測定システムの製作と脚部筋電位の測定
平成22年度大分大学工学部電気電子工学科卒業論文, 2011. 3

[35]AHMAD AFIF BIN MOHD FAUDZI:
ニューラルネットを用いた強化学習によるカメラ動作と対象認識の自律学習
平成21年度大分大学工学部電気電子工学科卒業論文, 2010. 3

[34]堀 真人:
ニューラルネットへの初期知識の付与とそれを用いた強化学習
平成21年度大分大学工学部電気電子工学科卒業論文, 2010. 3

[33]藤原 寛喜:
ニューラルネットにおける中間層ニューロンの出力調整による学習能力の向上
平成21年度大分大学工学部電気電子工学科卒業論文, 2010. 3

[32]田口 優馬:
赤外線・PSDセンサを取り付けたアームロボットの動作特性
平成21年度大分大学工学部電気電子工学科卒業論文, 2010. 3

[31]笹原 冬月:
ニューラルネットと強化学習を用いた音声によるコミュニケーションの自律学習
平成20年度大分大学工学部電気電子工学科卒業論文, 2009. 3

[30]千原 孝太郎:
掛け算ニューロンを導入したリカレントネットにおける離散状態遷移の学習能力の検証
平成20年度大分大学工学部電気電子工学科卒業論文, 2009. 3

[29]藤畑 陽彦:
センサによらない抽象的な状態表現を獲得する能力の人間における検証
平成20年度大分大学工学部電気電子工学科卒業論文, 2009. 3

[28]柳村 明宏:
画像入力ニューラルネットを用いた強化学習における識別困難状況の重点学習の効果
平成20年度大分大学工学部電気電子工学科卒業論文, 2009. 3

[27]大串 章:
カメラを用いた段までの距離と高さの計測
平成20年度大分大学工学部電気電子工学科卒業論文, 2009. 3

[26]工藤 聡一郎:
逐次評価値調整法を用いた強化学習における外力に反する探索能力の検証
平成20年度大分大学工学部電気電子工学科卒業論文(9月卒業), 2008. 9

[25]宇都宮 浩樹:
リカレントネットを用いた強化学習による記憶を要する行動の学習とその解析
平成19年度大分大学工学部電気電子工学科卒業論文, 2008. 3

[24]後藤 健太:
ニューラルネットを用いた強化学習が有する探索行動学習能力の解析
平成19年度大分大学工学部電気電子工学科卒業論文, 2008. 3

[23]高津 聡志:
リカレントニューラルネットによる記憶を用いた状態遷移の学習に関する研究
平成19年度大分大学工学部電気電子工学科卒業論文, 2008. 3

[22]池田 裕介:
多入力ニューラルネットの学習時における中間層ニューロン数の影響
平成19年度大分大学工学部電気電子工学科卒業論文, 2008. 3

[21]甲斐 信行:
二足ロボットにおける床反力を利用した直立姿勢制御
平成19年度大分大学工学部電気電子工学科卒業論文, 2008. 3

[20]大濱 直希:
実ロボットを用いた強化学習における罰の与え方による学習経過の観察
平成18年度大分大学工学部電気電子工学科卒業論文, 2007. 3

[19]松田 尚悟:
ゲート構造付き単一ニューラルネットでの学習によるゲーティング機能獲得の検証
平成18年度大分大学工学部電気電子工学科卒業論文, 2007. 3

[18]松本 康生:
リカレントネットを用いた強化学習による予測機能創発の解析
平成18年度大分大学工学部電気電子工学科卒業論文, 2007. 3

[17]MOHAMAD FAIZAL BIN SAMSUDIN:
リカレントネットの学習則であるPRL法とBPTT法の学習能力の比較
平成18年度大分大学工学部電気電子工学科卒業論文, 2007. 3

[16]安藤 一生:
ニューラルネットを用いた強化学習における逐次評価値調整の検証
平成18年度大分大学工学部電気電子工学科卒業論文, 2007. 3

[15]山崎 高志:
複数の隠れニューロンに対応した三層構造の成長型ニューラルネットの構築
平成18年度大分大学工学部電気電子工学科卒業論文, 2007. 3

[14]楠木 あづさ:
強化学習による繰り返し囚人のジレンマゲームにおける報酬分配学習の効果
平成16年度大分大学工学部電気電子工学科卒業論文, 2005. 3

[13]佐藤 俊太:
ニューラルネットを用いた強化学習におけるタスク間での知識継承能力の検証
平成16年度大分大学工学部電気電子工学科卒業論文, 2005. 3

[12]石井 慎也:
モチベーションと報酬期待ニューロンの強化学習による発現モデル,
平成15年度大分大学工学部電気電子工学科卒業論文, 2004. 3

[11]廣瀬 武志:
離散時間における実用的リカレントネット学習(PRL)法の検証,
平成15年度大分大学工学部電気電子工学科卒業論文, 2004. 3

[10]藤田 剛:
リカレントネットを用いた強化学習における行動学習,
平成15年度大分大学工学部電気電子工学科卒業論文, 2004. 3

[9]幸 和芳:
,Direct-Vision-Based強化学習によるカラー物体到達の学習
平成14年度大分大学工学部電気電子工学科卒業論文, 2003. 3

[8]仲西 賢展:
強化学習に基づくコミュニケーションの発現と伝達情報の解析,
平成14年度大分大学工学部電気電子工学科卒業論文, 2003. 3

[7]国広 昭雄:
Action Memory Q-learning による適応的記憶の学習,
平成14年度大分大学工学部電気電子工学科卒業論文, 2003. 3

[6]栗野 竜輔:
成長型ニューラルネットの基礎研究,
平成13年度大分大学工学部電気電子工学科卒業論文, 2002. 3

[5]真崎 勉:
報酬分配学習による多人数ゲームにおける強調関係の形成,
平成13年度大分大学工学部電気電子工学科卒業論文, 2002. 3

[4]宮本 沢巳:
強化学習に基づく選択的記憶の獲得 −メモリQ学習の提案−,
平成13年度大分大学工学部電気電子工学科卒業論文, 2002. 3

[3]飯田 大:
Direct-Vision方式による実意どうロボットの物体追従学習,
平成12年度大分大学工学部電気電子工学科卒業論文, 2001. 3

[2]五十川 達也:
誤差逆伝搬法によるニューラルネット中間層のスパースコーディング化,
平成12年度大分大学工学部電気電子工学科卒業論文, 2001. 3

[1]西野 哲生:
強化学習に基づく視点移動の学習
平成6年度東京大学工学部電気電子工学科卒業論文, 1995. 3

ホームページに戻る