2020年11月17日

令和2年度 技術士第一次試験問題 情報工学部門 V−12

V−12

ニューラルネットワークでは層を重ねるときに活性化関数としてステップ関数やシグモイド関数など、非線形な関数が用いられる。この理由として最も適切なものを選べ。

@ XOR (排他的論理和) ゲートのような線形分離できない問題に対応するため。

A 線形な関数を用いると、層を深くすることの意味がなくなってしまうため。

B 線形な関数を用いるものをパーセプトロン、非線形な関数を用いるものをニューラルネットワークと呼んでいるため。

C どんな入力に対しても、0〜1の範囲の値を出力するように変換する必要があるため。

D 非線形な関数を用いると、バイアスを用いる必要がなくなるため。





正解

A


解説

@ パーセプトロンを多層化する理由である。パーセプトロンは、複数の入力値に重み付けを行い、0か1かを出力するアルゴリズムである。

A 正しい。活性化関数は、ニューラルネットワークにおいて、複数の入力値に重み付けを行った総和から出力値を決定する関数のことである。
活性化関数にはステップ関数やシグモイド関数の他に、ReLU関数 (Rectified Linear Unit) などがある。なお、ReLU関数はランプ関数とも呼ばれる。

B パーセプトロンでも、非線形関数が用いられる。

C 例えばReLU関数は非線形関数であり、1以上の値を出力する。

D 非線形な関数でもバイアスを用いる。

posted by ファーストマクロ at 20:05| Comment(0) | R02技術士一次試験(情報工学)
この記事へのコメント
コメントを書く
お名前:

メールアドレス:

ホームページアドレス:

コメント:

認証コード: [必須入力]


※画像の中の文字を半角で入力してください。