タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

SFに関するzyzyのブックマーク (1)

  • 人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告

    by Global Panorama 2015年5月にロンドンで開催された「Zeitgeist 2015」のカンファレンスで、スティーヴン・ホーキング博士が、人工知能が大きく向上しコントロールできなくならないために人類がすべきことを語りました。ホーキング博士は2014年にBBC Newsのインタビューに対しても「人工知能の進化は人類の終焉を意味する」と発言しており、人工知能開発に対して警鐘を鳴らしています。 FLI - Future of Life Institute http://futureoflife.org/misc/open_letter Stephen Hawking warns computers will overtake humans within 100 years | Operating Systems | Techworld http://www.techworld

    人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告
    zyzy
    zyzy 2015/06/01
    そのコピーの容易さゆえに、マジョリティの立場を取られると人類は厳しいな。人類同士でもマジョリティはマイノリティを抑圧するわけで。精神構造がまんま人間だったら、それゆえに危険でやっかいにはなりそう。
  • 1