研究者データベース

研究者情報

マスター

アカウント(マスター)

  • 氏名

    坂本 大介(サカモト ダイスケ), サカモト ダイスケ

所属(マスター)

  • 情報科学研究院 情報理工学部門 複合情報工学分野

所属(マスター)

  • 情報科学研究院 情報理工学部門 複合情報工学分野

独自項目

syllabus

  • 2021, ヒューマンコンピュータインタラクション特論, Human-Computer Interaction, 修士課程, 情報科学研究科, Computer, Robot, Agent, Interaction Design, User Interface, Usability, User Experience (UX), User-centered Design, Evaluation and Experiment.
  • 2021, ヒューマンコンピュータインタラクション特論, Human-Computer Interaction, 修士課程, 情報科学院, Computer, Robot, Agent, Interaction Design, User Interface, Usability, User Experience (UX), User-centered Design, Evaluation and Experiment.
  • 2021, 大学院共通授業科目(一般科目):自然科学・応用科学, Inter-Graduate School Classes(General Subject):Natural and Applied Sciences, 修士課程, 大学院共通科目, Computer, Robot, Agent, Interaction Design, User Interface, Usability, User Experience (UX), User-centered Design, Evaluation and Experiment.
  • 2021, ヒューマンコンピュータインタラクション特論, Human-Computer Interaction, 博士後期課程, 情報科学研究科, Computer, Robot, Agent, Interaction Design, User Interface, Usability, User Experience (UX), User-centered Design, Evaluation and Experiment.
  • 2021, ヒューマンコンピュータインタラクション特論, Human-Computer Interaction, 博士後期課程, 情報科学院, Computer, Robot, Agent, Interaction Design, User Interface, Usability, User Experience (UX), User-centered Design, Evaluation and Experiment.
  • 2021, 情報エレクトロニクス概論, Introduction to Electronics and Information Engineering, 学士課程, 工学部, 情報理論, 計算機ハードウエア, 電子デバイス, 生体情報, 生命科学, 電子回路, 通信, メディア, ネットワーク, 電気回路, 制御工学
  • 2021, ロボットとインタラクティブシステム, Robot and Interactive Systems, 学士課程, 工学部, ヒューマンコンピュータインタラクション,インタラクティブシステム,ヒューマンインタフェース,ヒューマンロボットインタラクション,ヒューマンエージェントインタラクション,確率モデル,確率ロボティクス,環境知能,対話システム,機械学習,入出力デバイス,バーチャルリアリティ,量的評価・質的評価,ユーザエクスペリエンス,次世代インタフェース,認知科学,人工知能
  • 2021, ロボット情報学, Robot Informatics, 学士課程, 工学部, ヒューマンコンピュータインタラクション,インタラクティブシステム,ヒューマンインタフェース,ヒューマンロボットインタラクション,ヒューマンエージェントインタラクション,確率モデル,確率ロボティクス,環境知能,対話システム,機械学習,入出力デバイス,バーチャルリアリティ,量的評価・質的評価,ユーザエクスペリエンス,次世代インタフェース,認知科学,人工知能
  • 2021, 計算機プログラミングⅡ, Computer Programming Ⅱ, 学士課程, 工学部, 計算機プログラミング、C言語、ポインタ、構造体、データ構造
  • 2021, 情報理工学実験Ⅱ, Experiment in Computer Science and Information Technology II, 学士課程, 工学部, データベース、Web、機械学習、並列プログラミング

researchmap

プロフィール情報

学位

  • 博士(システム情報科学)(2008年03月 公立はこだて未来大学)

プロフィール情報

  • プロフィール

    1981年、北海道小樽市生まれ。04年、公立はこだて未来大学卒業。06年、公立はこだて未来大学大学院 システム情報科学研究科 博士前期課程修了、08年、同博士後期課程修了。博士(システム情報科学)。 ATR知能ロボティクス研究所においてインターン、東京大学にて日本学術振興会 特別研究員PD、独)科学技術振興機構 ERATO 五十嵐デザインインタフェースプロジェクト 研究員、東京大学大学院情報理工学系研究科 助教、特任講師を経て、現在、北海道大学 大学院情報科学研究科 准教授。国内外の学術会議やシンポジウムにおいて最優秀論文賞、最優秀デモンストレーション賞を受賞。その他、神戸ビエンナーレ2007 ロボットメディアアートコンペティション 最優秀賞、Laval Virtual 2010, Grand Prix du Jury、2012年度グッドデザイン賞など多数。 人とコンピュータやロボットなどとのインタラクション設計に関する研究に従事。
  • 坂本, サカモト
  • 大介, ダイスケ
  • ID各種

    201301071935550969

対象リソース

業績リスト

研究キーワード

  • ヒューマンコンピュータインタラクション   ヒューマンロボットインタラクション   ヒューマンエージェントインタラクション   ユーザインタフェース   インタラクションデザイン   エンタテインメントコンピューティング   

研究分野

  • 情報通信 / ヒューマンインタフェース、インタラクション / ヒューマンコンピュータインタラクション

経歴

  • 2020年03月 - 現在 北海道大学 産学・地域協働推進機構 兼務
  • 2019年04月 - 現在 国立大学法人 北海道大学 大学院情報科学研究院 准教授
  • 2022年04月 - 2023年03月 北海道大学 高等教育推進機構 兼務
  • 2017年01月 - 2022年03月 独立行政法人 科学技術振興機構 ERATO 蓮尾メタ数理システムデザインプロジェクト 研究推進委員
  • 2019年04月 - 2019年09月 早稲田大学 理工学術院 非常勤講師
  • 2017年03月 - 2019年03月 国立大学法人 北海道大学 大学院情報科学研究科 准教授
  • 2018年04月 - 2018年09月 早稲田大学 理工学術院 非常勤講師
  • 2017年04月 - 2018年03月 明治大学 大学院先端数理科学研究科 兼任講師
  • 2017年04月 - 2017年09月 早稲田大学 理工学術院 非常勤講師
  • 2013年01月 - 2017年02月 国立大学法人 東京大学 大学院情報理工学系研究科 特任講師
  • 2016年04月 - 2016年08月 国立大学法人 東京大学 教養学部 非常勤講師
  • 2015年04月 - 2015年08月 国立大学法人 東京大学 教養学部 非常勤講師
  • 2014年09月 - 2014年09月 国立大学法人 北海道大学 大学院情報科学研究科 非常勤講師
  • 2013年09月 - 2013年09月 国立大学法人 北海道大学 大学院情報科学研究科 非常勤講師
  • 2011年04月 - 2013年03月 国立大学法人 東京藝術大学 芸術情報センター 非常勤講師
  • 2011年04月 - 2013年03月 独立行政法人 科学技術振興機構 ERATO 五十嵐デザインインタフェースプロジェクト 研究推進委員
  • 2008年04月 - 2013年03月 株式会社 国際電気通信基礎技術研究所 知能ロボティクス研究所 連携研究員
  • 2011年04月 - 2013年01月 国立大学法人 東京大学 大学院情報理工学系研究科 助教
  • 2011年08月 - 2011年10月 University of Manitoba Department of Computer Science Visiting Researcher
  • 2010年04月 - 2011年03月 独立行政法人 科学技術振興機構 ERATO五十嵐デザインインタフェースプロジェクト 研究員
  • 2008年10月 - 2010年03月 独立行政法人 科学技術振興機構 ERATO 五十嵐デザインインタフェースプロジェクト 協力研究員
  • 2008年04月 - 2010年03月 独立行政法人 日本学術振興会 受入研究機関:東京大学 大学院情報理工学系研究科 特別研究員PD
  • 2006年04月 - 2008年03月 株式会社 国際電気通信基礎技術研究所 知能ロボティクス研究所 インターン

学歴

  • 2006年04月 - 2008年03月   公立はこだて未来大学   大学院システム情報科学研究科   博士後期課程
  • 2004年04月 - 2006年03月   公立はこだて未来大学   大学院システム情報科学研究科   博士前期課程
  • 2000年04月 - 2004年03月   公立はこだて未来大学   システム情報科学部

委員歴

  • 2021年06月 - 現在   ACM Transactions on Human-Robot Interaction (THRI)   Senior Associate Editor
  • 2019年 - 現在   電子情報通信学会 クラウドネットワークロボット研究専門委員会   専門委員
  • 2018年04月 - 現在   情報処理学会 ヒューマンコンピュータインタラクション研究会   運営委員
  • 2018年 - 現在   Frontiers in Robotics and AI | Human-Robot Interaction   Associate Editor
  • 2012年10月 - 現在   文部科学省 科学技術政策研究所 科学技術動向研究センター   専門調査員
  • 2017年06月 - 2021年05月   ACM Transactions on Human-Robot Interaction (THRI)   Associate Editor
  • 2020年   ACM Conference on Human Factors in Computing Systems (CHI)   Associate Chair
  • 2015年05月 - 2019年04月   電子情報通信学会 クラウドネットワークロボット研究専門委員会   幹事
  • 2015年04月 - 2019年03月   情報処理学会 エンタテインメントコンピューティング研究会   運営委員
  • 2014年 - 2019年   International Conference on Human-Agent Interaction (HAI)   Program Committee
  • 2019年   ACM International Conference on Human-Computer Interaction with Mobile Devices and Services (MobileHCI)   Late Breaking Results / Posters chairs
  • 2019年   ACM Conference on Human Factors in Computing Systems (CHI)   Associate Chair
  • 2019年   ACM conference on Designing Interactive Systems (DIS)   Paper Associate Chair
  • 2019年   International Conference on 3D Systems and Applications (3DSA)   Technical Program Committee
  • 2019年   情報処理学会論文誌特集号「インタラクションの理解および基盤・応用技術」   編集委員
  • 2018年   ACM International Conference on Interactive Surfaces and Spaces (ISS)   Publicity Chair
  • 2018年   ACM Symposium on Virtual Reality Software and Technology (VRST)   International Liaison Chairs
  • 2018年   ACM SIGGRAPH Conference and Exhibition on Computer Graphics and Interactive Techniques in Asia (SIGGRAPH Asia)   Virtual & Augmented Reality (VR/AR) Committee
  • 2018年   ACM International Conference on Intelligent User Interfaces (IUI)   Senior Program Committee
  • 2018年   情報処理学会論文誌特集号「エンタテインメントコンピューティング」   幹事
  • 2018年   情報処理学会論文誌特集号「インタラクションの理解および基盤・応用技術」   編集委員長
  • 2018年   ヒューマンインタフェース学会論文誌特集号「人間拡張(Human Augmentation)」   編集委員
  • 2018年   情報処理学会 インタラクション2018   プログラム委員長
  • 2013年06月 - 2017年05月   情報処理学会 論文誌ジャーナル/JIP編集委員会(情報システムグループ)   編集委員
  • 2014年04月 - 2017年03月   ヒューマンインタフェース学会 論文誌編集委員会   編集委員
  • 2015年 - 2017年   ACM/IEEE International Conference on Human-Robot Interaction (HRI)   Fundraising & Exhibitions Co-Chairs
  • 2017年   ACM/IEEE International Conference on Human-Robot Interaction (HRI)   Program Committee
  • 2017年   情報処理学会論文誌特集号「エンタテインメントコンピューティング」   編集委員長
  • 2017年   情報処理学会論文誌特集号「インタラクションの理解および基盤・応用技術」   幹事
  • 2017年   情報処理学会 インタラクション2017   プログラム副委員長
  • 2017年   第25回 インタラクティブシステムとソフトウェアに関するワークショップ (WISS2017)   運営委員長
  • 2014年04月 - 2016年03月   情報処理学会 新世代企画委員会   委員
  • 2012年04月 - 2016年03月   情報処理学会 ヒューマンコンピュータインタラクション研究会   運営委員
  • 2012年 - 2016年   情報処理学会 インタラクション   プログラム委員
  • 2016年   ACM Symposium on User Interface Software and Technology (UIST)   Treasurer and Local arrangements
  • 2016年   International Conference on Advances in Computer Entertainment Technology (ACE)   Program Committee
  • 2016年   情報処理学会論文誌特集号「エンタテインメントコンピューティング」   編集委員
  • 2016年   情報処理学会論文誌特集号「インタラクションの理解および基盤・応用技術」   編集委員
  • 2016年   情報処理学会 エンタテインメントコンピューティング2016   プログラム委員長
  • 2016年   第24回 インタラクティブシステムとソフトウェアに関するワークショップ (WISS2016)   副運営委員長
  • 2013年04月 - 2015年03月   電子情報通信学会 クラウドネットワークロボット研究専門委員会   幹事補佐
  • 2011年04月 - 2015年03月   情報処理学会 エンタテインメントコンピューティング研究会   幹事
  • 2013年 - 2015年   ACM SIGGRAPH Conference and Exhibition on Computer Graphics and Interactive Techniques in Asia (SIGGRAPH Asia)   Emerging Technologies, E-Tech Prize Committee
  • 2011年 - 2015年   ソフトウェア科学会 インタラクティブシステムとソフトウェアに関するワークショップ (WISS)   プログラム委員
  • 2011年 - 2015年   情報処理学会 インタラクション   ローカルアレンジメント委員
  • 2015年   ACM Conference on Human Factors in Computing Systems (CHI)   Associate Chair
  • 2015年   International Conference on Advances in Computer Entertainment Technology (ACE)   Paper chair
  • 2015年   ヒューマンインタフェース学会論文誌特集号「インタラクティブファブリケーション」   副編集委員長
  • 2015年   ヒューマンインタフェース学会論文誌特集号「「いい加減」なインタフェース」   編集委員
  • 2015年   電子情報通信学会和文論文誌A特集「人とエージェントのインタラクション」   編集委員
  • 2015年   情報処理学会論文誌特集号「インタラクションの理解および基盤・応用技術」   編集委員
  • 2015年   情報処理学会論文誌特集号「学生・若手研究者論文」   編集委員
  • 2015年   情報処理学会 エンタテインメントコンピューティング2015   副プログラム委員長
  • 2014年   IEEE Global Conference on Consumer Electronics (GCCE)   Special Session Co-chair
  • 2014年   ACM International Conference on Advances in Computer Entertainment (ACE)   Creative Showcase Co-chair
  • 2014年   情報処理学会論文誌特集号「ユビキタスコンピューティングシステム(IV)」   編集委員
  • 2014年   情報処理学会論文誌特集号「インタラクションの理解および基盤・応用技術」   編集委員
  • 2014年   情報処理学会論文誌特集号「学生・若手研究者論文」   編集委員
  • 2013年   IEEE Global Conference on Consumer Electronics (GCCE)   Special Session Chair
  • 2013年   ACM/IEEE International Conference on Human-Robot Interaction (HRI)   Fundraising & Exhibitions Co-Chairs
  • 2010年 - 2012年   情報処理学会/電子情報通信学会情報 情報科学技術フォーラム (FIT)   研究会担当委員
  • 2012年   ACM International Conference on Multimedia (MM)   Technical Program Committee
  • 2009年04月 - 2011年03月   情報処理学会 エンタテインメントコンピューティング研究会   運営委員
  • 2011年   International Conference on Artificial Reality and Telexistence (ICAT)   Publicity Co-chair
  • 2011年   ACM International Conference on Interactive Tabletops and Surfaces (ITS)   Publicity Chair
  • 2011年   International Conference on Advances in Computer Entertainment Technology (ACE)   Program Committee
  • 2011年   International Conference on Artificial Reality and Telexistence (ICAT)   Program Committee
  • 2011年   情報処理学会論文誌特集号「エンタテインメントコンピューティング」   幹事
  • 2011年   情報処理学会/電子情報通信学会情報 情報科学技術フォーラム (FIT) 2011   プログラム委員
  • 2009年 - 2010年   情報処理学会 インタラクション   プログラム委員
  • 2010年   International Conference on Advances in Computer Entertainment Technology (ACE)   Program Committee
  • 2009年   ACM International Conference on Interactive Tabletops and Surfaces (ITS)   Program committee
  • 2008年   ACM International Conference on Advances in Computer Entertainment Technology (ACE)   Local Organizing Committee

受賞

  • 2024年06月 一般社団法人 情報処理学会 2023年度論文賞
     Kuiper Belt:VRにおける自然ではない視線角度を用いた視線入力手法の提案 
    受賞者: 崔 明根;坂本 大介;小野 哲雄
  • 2024年03月 情報処理学会シンポジウム「インタラクション2024」 優秀論文賞
     AR入力デバイスとしての身体装着型トラックボールの検討 
    受賞者: 岩井望;崔明根;坂本大介;小野哲雄
  • 2024年03月 情報処理学会シンポジウム「インタラクション2024」 インタラクティブ発表賞(PC推薦)
     VRリダイレクションを用いた座位姿勢改善手法における閾値調査 
    受賞者: 小林 広夢;崔 明根;坂本 大介;小野 哲雄
  • 2024年02月 北海道知事表彰 令和5年度 北海道科学技術奨励賞
     
    受賞者: 坂本大介
  • 2023年12月 第31回インタラクティブシステムとソフトウェアに関するワークショップ(WISS2023) 対話発表賞(一般)
     OMEME:非装着状態のHMDを用いたコンパニオンロボットの開発 
    受賞者: 阿部 優樹;鈴木 湧登;坂本 大介;小野 哲雄
  • 2023年10月 公益財団法人日本デザイン振興会 2023年度グッドデザイン賞
     ユーザインタフェースの研究 
    受賞者: 鈴木健司;笹間裕;坂本大介;金田悠和;町田宏司;椎崎幸世;中村塁;安藤智彦;西磨翁;坂本理砂;相原佳代子;岩本陽;田中暢;木村周;桐生しおり
  • 2022年12月 第30回インタラクティブシステムとソフトウェアに関するワークショップ(WISS2022) 最優秀発表賞(一般)
     Gino .Aiki: 合気道の身体の使い方の習得を支援するMRソフトウェア 
    受賞者: 鈴木湧登;坂本大介;小野哲雄
  • 2022年12月 第30回インタラクティブシステムとソフトウェアに関するワークショップ(WISS2022) 対話発表賞(一般)
     Gino .Aiki: 合気道の身体の使い方の習得を支援するMRソフトウェア 
    受賞者: 鈴木湧登;坂本大介;小野哲雄
  • 2022年02月 情報処理学会「インタラクション2022」 論文賞
     Kuiper Belt: バーチャルリアリティにおける極端な視線角度を用いた視線入力手法の検討 
    受賞者: 崔 明根;坂本 大介;小野 哲雄
  • 2021年06月 情報処理学会デジタルコンテンツクリエーション研究会 DCON論文賞
     
    受賞者: 巻口 誉宗;高田 英明;坂本 大介;小野 哲雄
  • 2021年03月 情報処理学会およびIEEE-CS(Institute of Electrical and Electronics Engineers Computer Society) IPSJ/IEEE-CS Young Computer Researcher Award
     
    受賞者: 坂本大介
  • 2021年01月 Japan ACM SIGCHI Chapter 優秀若手研究者賞
     
    受賞者: 坂本大介
  • 2019年10月 the 21st International Conference on Human-Computer Interaction with Mobile Devices and Services (MobileHCI '19) Best Demo Award - People's Choice
     
    受賞者: Kenji Suzuki;Daisuke Sakamoto;Sakiko Nishi;Tetsuo Ono
  • 2018年08月 日本ソフトウェア科学会 第22回研究論文賞
     
    受賞者: 小山裕己;坂本大介;五十嵐健夫
  • 2017年12月 HAIシンポジウム2017 Outstanding Research Award (優秀論文賞)
     複数ロボットの発話の重なりによって創発する空間の知覚 
    受賞者: 水丸 和樹;坂本 大介;小野 哲雄
  • 2017年12月 HAIシンポジウム2017 Impressive Poster Award (優秀ポスター賞)
     ぬいぐるみロボットを用いた休憩タイミング提示システムの提案 
    受賞者: 大西 紗綾;坂本 大介;小野 哲雄
  • 2016年12月 日本ソフトウェア科学会 第24回インタラクティブシステムとソフトウェアに関するワークショップ (WISS 2016) 対話発表賞
     自由形状の竹とんぼのインタラクティブデザインシステム 
    受賞者: 中村 守宏;小山 裕己;坂本 大介;五十嵐 健夫
  • 2016年03月 情報処理学会インタラクション2016 インタラクティブ発表賞(PC推薦)
     Dollhouse VR: 複数人が空間を多角的に見ながら協調してレイアウトを検討できるシステム 
    受賞者: 杉浦裕太;尉林暉;チョントビー;坂本大介;宮田なつき;多田充徳;大隈隆史;蔵田武志;新村猛;持丸正明;五十嵐健夫
  • 2015年11月 ACM the 28th Annual ACM Symposium on User Interface Software & Technology (UIST '15) Best Poster Award, Honorable Mention
     Fix and Slide: Caret Navigation with Movable Background 
    受賞者: Kenji Suzuki;Kazumasa Okabe;Ryuuki Sakamoto;Daisuke Sakamoto
  • 2015年06月 情報処理学会 学会活動貢献賞
     学術講演の動画中継・アーカイブ活動を通じた学会への貢献 
    受賞者: 坂本大介
  • 2015年04月 ACM, the SIGCHI Conference on Human Factors in Computing Systems (CHI '15) Honorable Mention
     AnnoTone: Record-time Audio Watermarking for Context-aware Video Editing 
    受賞者: Ryohei Suzuki;Daisuke Sakamoto;Takeo Igarashi
  • 2015年03月 情報処理学会インタラクション2015 インタラクティブ発表賞
     テキスト全体の移動によりキャレットの相対位置を変化させるポインティング手法の提案 
    受賞者: 鈴木 健司;岡部 和昌;坂本 竜基;坂本 大介
  • 2014年11月 日本ソフトウェア科学会 インタラクティブシステムとソフトウェアに関するワークショップ(WISS '14) 優秀論文賞
     
    受賞者: 小山 裕己;坂本 大介;五十嵐 健夫
  • 2014年10月 international conference on Human-Agent Interaction (iHAI '14) Best Paper Nominee
     
    受賞者: Jun Kato;Daisuke Sakamoto;Takeo Igarashi;Masataka Goto
  • 2014年02月 ACM international conference on Intelligent User Interfaces (IUI '14) Best Paper Award
     
    受賞者: Fangzhou Wang;Yang Li;Daisuke Sakamoto;Takeo Igarashi
  • 2013年12月 International Conference on Artificial Reality and Telexistence (ICAT '13) Best Paper Award
     
    受賞者: Daniel Saakes;Vipul Choudhary;Daisuke Sakamoto;Masahiko Inami;Takeo Igarashi
  • 2013年10月 ACM Symposium on Virtual Reality Software and Technology (VRST '13) Best Paper Award
     
    受賞者: Naoki Sasaki;Hsiang-Ting Chen;Daisuke Sakamoto;Takeo Igarashi
  • 2013年03月 ACM/IEEE international conference on Human-robot interaction (HRI2013) Best Demo Honorable Mention Award
     
    受賞者: Yuta Sugiura;Yasutoshi Makino;Daisuke Sakamoto;Masahiko Inami;Takeo Igarashi
  • 2012年10月 日本デザイン振興会 2012年度グッドデザイン賞
     
    受賞者: 杉浦裕太;筧豪太;杉本麻樹;坂本大介;稲見昌彦;五十嵐健夫
  • 2010年11月 International Conference on Advances in Computer Entertainment Technology (ACE 2010) Best Paper Silver Award
     
    受賞者: Takumi Shirokura;Daisuke Sakamoto;Yuta Sugiura;Tetsuo Ono;Masahiko Inami;Takeo Igarashi
  • 2010年04月 Laval Virtual 2010 Grand Prix du Jury
     
    受賞者: Thomas Seifried;Christian Rendl;Florian Perteneder;Jakob Leitner;Michael Haller;Daisuke Sakamoto;Jun Kato;Masahiko Inami;Stacey D. Scott
  • 2010年03月 情報処理学会 インタラクション2010 インタラクティブ発表賞
     
    受賞者: 杉浦裕太;筧豪太;Anusha I. Withana;Charith L. Fernando;坂本大介;稲見昌彦;五十嵐健夫
  • 2009年05月 情報処理学会 平成20年度論文賞
     
    受賞者: 坂本大介;神田崇行;小野哲雄;石黒浩
  • 2008年03月 国際電気通信基礎技術研究所 研究開発表彰 優秀研究賞(所内表彰)
     
    受賞者: 坂本大介
  • 2007年11月 神戸ビエンナーレ2007 ロボットメディアアートコンペティション 最優秀賞
     
    受賞者: 坂本大介
  • 2007年03月 情報処理学会 インタラクション2007 ベストペーパー賞
     
    受賞者: 坂本大介;神田崇行;小野哲雄;石黒浩;萩田紀博
  • 2007年03月 ACM/IEEE International Conference on Human-Robot Interaction (HRI2007) Best Paper Award
     
    受賞者: Kotaro Hayashi;Daisuke Sakamoto;Takayuki Kanda;Masahiro Shiomi;Satoshi Koizumi;Hiroshi Ishiguro;Tsukasa Ogasawara;Norihiro Hagita
  • 2006年 情報処理学会関西支部 平成18年度 学生奨励賞
     
    受賞者: 坂本大介
  • 2005年03月 電子情報通信学会北海道支部 平成17年度 支部長賞
     
    受賞者: 坂本大介
  • 2004年03月 公立はこだて未来大学 未来大学賞
     
    受賞者: 坂本大介
  • 2002年10月 日経BP WPC EXPO テーマビジュアルコンテスト 優秀賞
     
    受賞者: 坂本大介;松下勇夫

論文

  • Maino Shinohara, Daisuke Sakamoto, Tetsuo Ono, James Everett Young
    HAI 133 - 141 2023年12月 [査読有り][通常論文]
  • Yuto Suzuki, Daisuke Sakamoto, Tetsuo Ono
    ISMAR-Adjunct 519 - 524 2023年10月 [査読有り][通常論文]
  • 崔 明根, 坂本 大介, 小野 哲雄
    情報処理学会論文誌 64 2 400 - 416 情報処理学会 2023年02月15日 [査読有り]
     
    目の水平方向の最大可動範囲は平均45°である.しかし目が限界まで動くことはほとんどなく,視線は基本的に視線と頭部方向がなす角度(視線角度)25°以内に分布している.我々はこの25°-45°の領域を“Kuiper Belt”と名付けた.当領域はユーザが意図的に目を動かさない限り視線が移動することはほとんどない.ゆえにKuiper Beltを活用することで,VRにおける視覚探索時の意図しない選択操作であるMidas Touchが減少すると考えられる.本稿ではKuiper Beltで視線インタラクションを行うためのパラメータ設計を行う実験と,Kuiper Beltを用いた手法の有用性と負担を検討する実験を行った.実験結果より,Kuiper Beltを活用することで視覚探索時の選択操作の高速化と誤入力の減少が可能であることが示された. The maximum physical range of horizontal human eye movement is approximately 45°. However, in a natural gaze shift, the difference in the direction of the gaze relative to the frontal direction of the head rarely exceeds 25°. We name this region of 25°-45° the “Kuiper Belt” in the eye-gaze interaction. We try to utilize this region to solve the Midas touch problem to enable a search task while reducing false input in the Virtual Reality environment. In this work, we conduct two studies to figure out the design principle of how we place menu items in the Kuiper Belt as an “out-of-natural angle” region of the eye-gaze movement and determine the effectiveness and workload of the Kuiper Belt-based method. The results indicate that the Kuiper Belt-based method facilitated the visual search task while reducing false input. Finally, we present example applications utilizing the findings of these studies.
  • 阿部 優樹, 崔 明根, 坂本 大介, 小野 哲雄
    情報処理学会論文誌 64 2 352 - 365 情報処理学会 2023年02月15日 
    ストリームライブ配信の普及にともない,ライブ配信時の配信者と視聴者の交流手法が研究されている.配信者側の交流支援手法はさかんに研究が行われてきている一方で,視聴者側のデザイン検討は少なく,特にストリームライブ配信視聴中のテキスト入力手法は十分に検討されていない.そこで我々は,視聴者側のユーザ体験を向上させるライブチャット用キーボードの検討を行った.まず,我々はストリームライブ配信を日常的に視聴するユーザにインタビュー調査を行い,ライブ配信視聴者の習慣や問題点を調査した.その結果,ユーザはスマートフォンでストリームライブ配信を視聴することが多く,その際には横持ちスマートフォンでの視聴が好まれる傾向がみられた.同時に,既存のスマートフォン上のキーボードは動画画面と大きく干渉するため,視聴者の没入感とコメント意欲を妨げていることが明らかになった.そこで,動画を隠さず,ライブチャット交流を円滑にする横持ちでのスマートフォンに最適化したキーボードの実現を目指して1) 両手を負担なく活用できるダブルフリックキーボード,2) 動画背景に対する半透明キーボードを提案し,その有用性をユーザビリティの観点から検証した.結果,スマートフォンの横持ち操作において,両手保持を想定したキー配置は有効であること,および一定以下の不透明なキーボードは動画背景で入力性能が低下することが明らかになった.最後に,横持ちスマートフォンでの文字キー配置や動画背景での不透明度の影響について考察を行う. With the spread of live streaming services, interaction methods between streamers and viewers during live streaming have been studied. While there has been much research on interaction methods for the streamer side, there has been little design study on the viewer side, and in particular, text input methods during live streaming have not been sufficiently studied. We propose a keyboard for live chat that improves the user experience on the viewer side. First, we conducted an interview survey of viewers who watch live streaming on a daily basis to investigate their preferences and problems. As a result, we found that viewers often watch live streaming on their smartphones, and that they tend to hold their smartphones horizontally when watching live streaming. At the same time, it was found that the current keyboard on smartphones interferes significantly with the video screen, which disturbs the viewer's immersion in the video and motivation to comment on the content. Therefore, we propose a keyboard optimized for smartphones in landscape mode that facilitates live chat interaction. Key features of our keyboard are 1) a double-flick keyboard that can utilize both hands, and 2) a semi-transparent, less occlude video screen. We conducted a study to understand the usability of the proposed keyboard. As a result, we found that a key arrangement of the double-flick keyboard for two-handed interaction is effective in text input for landscape mode, however, high clarity of the keyboard decreases performance in text input while watching a video. Finally, we discuss the effects of key arrangement in landscape mode and keyboard opacity for a live chat on streaming video.
  • Kento Goto, Kazuki Mizumaru, Daisuke Sakamoto, Tetsuo Ono
    HRI 1192 - 1193 2022年
  • Sho Mitarai, Nagisa Munekata, Daisuke Sakamoto, Tetsuo Ono
    Journal of The Virtual Reality Society of Japan (TVRSJ) 26 4 333 - 344 2021年12月 [査読有り][通常論文]
  • Takehiro Abe, Daisuke Sakamoto
    MobileHCI '21: 23rd International Conference on Mobile Human-Computer Interaction(MobileHCI) 1 - 11 2021年09月 [査読有り]
  • 秋葉 翔太, 崔 明根, 坂本 大介, 小野 哲雄
    情報処理学会論文誌 62 2 689 - 700 2021年02月15日 [査読有り]
     
    本研究ではスマートフォンの片手操作時においてグループ化された複数のターゲットをユーザがタッチした際に,グループ内のターゲットを半円状に再配置した場合のターゲット選択手法を3つ提案する.提案手法では選択ターゲットを明示的に示すために,タッチされた点を中心として,選択候補となるターゲットすべてが指に被らないように指の周りに半円状に再配置する.本研究では,再配置した目標ターゲットを選択する手法として,目標ターゲットの方向へ直接指を傾けて選択するOne Half-Pie,2段に配置されたターゲットを押し込み動作によって切り替えながら選択するTwo Half-Pie,タッチした地点からドラッグした量に応じてターゲットの選択が行われるRailDraggerの3つの選択方法を実装し評価する.実験では3つの選択手法を用いてそれぞれポインティングタスクを行い,選択終了までの時間と選択精度の観点から選択手法の評価を行った.その結果,提案する3手法において選択時間に関してはRailDraggerが,選択精度に関してはTwo Half-Pieが最も優れていることが分かった.
  • 崔 明根, 坂本 大介, 小野 哲雄
    情報処理学会論文誌 62 2 667 - 679 2021年02月15日 [査読有り]
     
    本稿では,密集した小さなターゲットに対して高速にターゲット選択を行うことができるよう拡張した手法であるバブルレンズ法を,視線操作インタフェースに適用した手法Bubble Gaze Lensを提案する.本手法は,サッケードが弾道的な運動と修正的な運動によって構成されていることを利用して,ターゲット付近で拡大レンズを起動することで,視線入力インタフェースにおける小さなターゲットの選択を容易にする.提案手法の有用性を検討するために既存手法であるBubble Gaze Cursorと提案手法Bubble Gaze Lensに対してポインティングタスクを行った結果,提案手法は既存手法と比較してつねに高速に動作し,エラー率を54.0%削減した.さらに,ユーザビリティやメンタルワークロードにおいても提案手法の方が既存手法よりも有意に優れていた.
  • 岡田 友哉, 坂本 大介, 小野 哲雄
    情報処理学会論文誌 62 2 654 - 666 2021年02月15日 [査読有り]
     
    本研究ではアウトドアアクティビティとしてのスキーに注目し,スキーポールを入力デバイスとしたジェスチャ入力手法を提案する.まず,複数人のスキー経験者にモバイルデバイス操作に適したジェスチャを考案してもらうことでユーザ定義型ジェスチャを設計した.設計したジェスチャの認識を行うため,ポールのグリップ部分の下に加速度,ジャイロセンサを装着し,そこから得られるセンサデータを利用するジェスチャ認識器を畳み込みニューラルネットワーク(CNN)で実装した.ジェスチャ実行時のデータを収集し,識別実験を実施した結果,ランダムに選択されたデータによって学習したときの正解率は約96.5%であり,1人のユーザのデータをテストデータとし,他のユーザのデータで学習したときの平均正解率は約85.8%であった.また,実際のスキー中の誤認識率を確認するためにスキー場にてデータを収集し,ジェスチャデータとの識別を行った結果,約99.3%の正解率でスキー滑走時とジェスチャ入力時の認識が可能であった.
  • Daichi Katsura, Naoto Nishino, Daisuke Sakamoto, Tetsuo Ono
    Proceedings of SPIE - The International Society for Optical Engineering 11766 2021年 
    There are a variety of sizes and thicknesses of holds used in climbing, and the ease of holding them varies greatly. However, the difficulty of holding has not been considered in previous studies on route exploration. In this study, we improved the search algorithm A∗ used in previous studies and incorporated the difficulty of the hold into the fitness. We also used the improved A∗ as the evaluation function to estimate the difficulty of holds using a genetic algorithm (GA). There was also no discussion on how many divisions of the hold should be divided by difficulty, so we assumed four divisions: 2, 4, 8, and 16 divisions. After adjusting the parameters during interviews with expert climbers, we compared the algorithm of the four divisions with that of previous studies using a questionnaire online. The results showed that the route of the algorithm, which considers the difficulty of the hold, was rated higher by expert climbers and that the 8-division algorithm was the best among the proposed methods.
  • Naoki Osaka, Kazuki Mizumaru, Daisuke Sakamoto, Tetsuo Ono
    HAI '21: International Conference on Human-Agent Interaction(HAI) 267 - 271 2021年
  • 坂本 大介, 吉田 成朗
    コンピュータ ソフトウェア 37 3 3_25 - 3_30 日本ソフトウェア科学会 2020年07月22日 
    Japan ACM SIGCHI ChapterおよびCHI2020 Japan Chapter local meeting実行委員会は、新型コロナウイルス感染症(COVID-19)の影響で現地開催が中止となったACM CHI2020の日本ローカルの研究発表会をオンライン開催したので,これの報告をする.
  • 巻口 誉宗, 高田 英明, 坂本 大介, 小野 哲雄
    情報処理学会論文誌デジタルコンテンツ(DCON) 8 1 1 - 10 2020年02月26日 [査読有り][通常論文]
     
    遠隔地のスポーツのライブビューイングやステージイベントなどのエンターティンメント分野において,半透過スクリーンやハーフミラーを用いて被写体を空中像で表示する演出手法が活用されている.これまでこうした演出手法では,空中像を表示させたい領域に大がかりな装置を設置する必要があり,被写体の移動範囲が制限されていた.そこで我々は,空中像をステージ外や観客席に移動させる演出の実現を目的とし,可搬型のサイズ・構成で臨場感の高い空中像を表示できる両面透過型多層空中像表示技術を提案する.本手法は4台のディスプレイと4枚のハーフミラーを組み合わせたシンプルな光学系で構成される.観察者は装置の正面と背面の2方向から被写体の両面を空中像として観察でき,両面それぞれから近景と遠景の2層の背景空中像を観察できる.提案手法では表示面は4面しか持たないものの,ハーフミラーによる透過と反射によって背景の2層を正面・背面の観察方向で共有することで,両面それぞれから3層,合計6層の空中像を視聴できる.さらに,近景と遠景は正面・背面の観察方向にかかわらずに光学的な奥行きの順序関係が保たれることから,複数人が同時に装置両面から,多層化された臨場感の高い空中像を視聴できる.本稿では提案手法の光学構成の詳細から,実用性評価のために行ったプロトタイプ実装とイベントでの活用事例まで広く報告する.
  • 崔 明根, 坂本 大介, 小野 哲雄
    情報処理学会論文誌 61 2 221 - 232 2020年02月15日 [査読有り][通常論文]
     
    視線入力インタフェースにおいて小さなターゲットを選択することは非常に困難であり,容易にするためにはインタフェースデザインの変更か動作時間の増加を強いられる.本稿では,動作時間やデザインの汎用性を維持した状態で小さなターゲットを選択することを容易にすることを目的として,エリアカーソルの一種であるバブルカーソルを視線操作時のカーソルとして用いる手法を提案する.バブルカーソルが視線入力インタフェースにおいてどのような挙動をするのか確認するため,マウスのバブルカーソルと視線のポイントカーソル,そして視線のバブルカーソルに対してポインティングタスクを行った.その結果,視線カーソルをバブルカーソルに変更したものはポイントカーソルよりもつねに高速に動作したうえ,ユーザビリティ評価指標もポイントカーソルよりも有意に高かった.したがって視線カーソルにバブルカーソルを用いる提案手法はポインティングを容易に,かつ高速にするうえで有効な手法だといえる.
  • 鈴木 健司, 坂本 竜基, 坂本 大介, 小野 哲雄
    情報処理学会論文誌 61 2 233 - 243 ACM 2020年02月15日 [査読有り][通常論文]
     
    スマートフォン等の小型携帯端末における片手でのズームアウト操作について,圧力感知マルチタッチ技術を使用する2つの手法(Bounce BackとForce Zoom)を提案する.Bounce Backは,ユーザが指で画面を押し続けている間の画面に与える圧力を計測し,ユーザが指を離すとその圧力に応じて飛び跳ねるようにズームアウトする.Force Zoomもまた同様に圧力を計測し,ユーザが画面を押すと表示物が押し遠ざけられるように連続的にズームアウトする.本研究では,提案する2つの手法と先行研究で提案されている類似手法および小型携帯端末版Googleマップで用いられているズーミング手法の4手法の比較実験を行った.その結果,Bounce BackとForce Zoomは作業実行時間が先行研究の手法より有意に短く,操作回数が先行研究の手法と小型携帯端末版Googleマップの手法より有意に少ないことが確認された.
  • Yuri Suzuki 0003, Kaho Kato, Naomi Furui, Daisuke Sakamoto, Yuta Sugiura
    TEI '20: Fourteenth International Conference on Tangible, Embedded, and Embodied Interaction 467 - 472 2020年 [査読有り]
  • Katsutoshi Masai, Kai Kunze, Daisuke Sakamoto, Yuta Sugiura, Maki Sugimoto
    2020 IEEE International Symposium on Mixed and Augmented Reality(ISMAR) 374 - 386 2020年 [査読有り]
  • Daichi Katsura, Subaru Ouchi, Daisuke Sakamoto, Tetsuo Ono
    HAI '20: 8th International Conference on Human-Agent Interaction(HAI) 254 - 256 2020年 [査読有り]
  • Myungguen Choi, Daisuke Sakamoto, Tetsuo Ono
    ETRA '20: 2020 Symposium on Eye Tracking Research and Applications(ETRA) 11 - 10 2020年 [査読有り]
  • Kenji Suzuki, Daisuke Sakamoto, Sakiko Nishi, Tetsuo Ono
    Proceedings of the 21st International Conference on Human-Computer Interaction with Mobile Devices and Services, MobileHCI 2019, Taipei, Taiwan, October 1-4, 2019. 66:1-66:6  ACM 2019年10月 [査読有り][通常論文]
  • Lei Ma, Daisuke Sakamoto, Tetsuo Ono
    Proceedings of the 7th International Conference on Human-Agent Interaction, HAI 2019, Kyoto, Japan, October 06-10, 2019 324 - 326 ACM 2019年10月 [査読有り][通常論文]
  • Subaru Ouchi, Kazuki Mizumaru, Daisuke Sakamoto, Tetsuo Ono
    Proceedings of the 7th International Conference on Human-Agent Interaction, HAI 2019, Kyoto, Japan, October 06-10, 2019 232 - 233 ACM 2019年10月 [査読有り][通常論文]
  • 巻口 誉宗, 高田 英明, 本田 健悟, 坂本 大介, 小野 哲雄
    マルチメディア,分散協調とモバイルシンポジウム2019論文集 2019 176 - 179 2019年06月26日 [査読無し][通常論文]
  • 鈴木健司, 岡部和昌, 坂本竜基, 坂本大介
    情報処理学会論文誌ジャーナル(Web) 60 2 354‐363 (WEB ONLY)  2019年02月 [査読有り][通常論文]
  • 黒澤 紘生, 坂本 大介, 小野 哲雄
    情報処理学会論文誌 60 2 364 - 375 2019年02月 [査読有り][通常論文]
     
    スマートウォッチ上のポインティング手法として,スマートウォッチのチルト操作を利用し,その操作量の決定に筋電情報を用いる手法を提案する.本手法においては,ユーザはポインタの操作を行うために,まず動かしたい方向に腕を傾ける.従来手法ではこの時点でポインタ操作が可能であったが,本手法においてはこの移動のために筋電情報を用いる.たとえば,スマートウォッチを傾けた後,ぐっと腕に力を入れるなどしてポインタ操作が可能となる.評価実験を行った結果,提案手法は小さなターゲットを93%以上の精度で選択可能であり,従来のチルト操作手法と比較して操作性が有意に改善されていることが確認された.また,ターゲットが小さくなるにつれて精度が落ちることで知られるFat Finger Problemに対して,本手法においてはその精度低下が確認されなかった.
  • Mari Hirano, Kanako Ogura, Daisuke Sakamoto, Mina Nakano, Takeru Tsuchida, Yuri Iwano, Haruhiko Shimoyama
    Gerontechnology 18 2 89 - 96 2019年 
    Background Many studies indicate that companion robots are effective for supporting the health of older people have been reported however, there is little knowledge on supporting older people through conversation. It is thus necessary to explore the conversation style of robots to promote the psychological health of older people. Research aim The aim of this study was to explore which style of robot's utterance was effective for promoting relationship with older people: provide useful information or only ask questions and provide neutral responses. Methods We conducted a comparative study using two talking robots with the aim of promoting psychological health. One robot has programmed to converse frequently with people, giving them general advices the other robot was programmed listen frequently to people. Twenty-nine participants (average 70.28 years old) were randomly divided into two groups, and after having a semi-structured conversation with the robot, they responded to an impressive evaluation and interview. Results The results showed that there was a significant difference between the two groups the number of utterances of participants in the listening-robot group was significantly higher than that of the speaking-robot group. We analyzed the conversation content, and the results showed that participants had a more positive feeling toward the listening robot than toward the speaking robot. Conclusion We argue that social robots for older people should listen more than speak in order to promote a better relationship.
  • Motohiro Makiguchi, Daisuke Sakamoto, Hideaki Takada, Kengo Honda, Tetsuo Ono
    Proceedings of the 32nd Annual ACM Symposium on User Interface Software and Technology, UIST 2019, New Orleans, LA, USA, October 20-23, 2019 625 - 637 ACM 2019年 [査読有り][通常論文]
  • Yuta Sugiura, Hikaru Ibayashi, Toby Chong, Daisuke Sakamoto, Natsuki Miyata, Mitsunori Tada, Takashi Okuma, Takeshi Kurata, Takashi Shinmura, Masaaki Mochimaru, Takeo Igarashi
    Proceedings of the 16th ACM SIGGRAPH International Conference on Virtual-Reality Continuum and its Applications in Industry, VRCAI 2018, Hachioji, Japan, December 02-03, 2018 21:1-21:6 - 6 ACM 2018年12月 [査読有り][通常論文]
  • 水丸 和樹, 坂本 大介, 小野 哲雄
    情報処理学会論文誌 59 12 2279 - 2287 2018年12月 [査読有り][通常論文]
     
    人間の集団には,社会空間と呼ばれる特有の空間が形成されている.この空間は集団に属している人々が活発にコミュニケーションをとっているときに強く形成され,集団に属していない第三者の行動はこの空間に影響される.また,日常生活における人間同士の会話には無意識に発話の重なりが生じ,対話相手への同調・関心・理解などを表現するとともに,活発な会話を生み出す重要な要因となっている.一方で,近年,ヒューマノイドロボットが実用化されてきており,実証実験がさかんに行われている.将来,人間が複数のロボットと共生する環境を想定するとき,ロボットの集団に形成される空間を考慮する必要があるにもかかわらずそのような研究は十分に行われていない.本研究では,ロボットどうしの活発なコミュニケーションを発話の重なりによって実現し,それによって創発される空間を人間がどのように知覚するかについて調査した.実験結果より,発話の重なりは会話の活発さの印象を向上させ,ロボットの集団に創発される空間はその会話を観察した人間の行動に影響を与えるということが示された.
  • 山下 峻, 藍 圭介, 坂本 大介, 小野 哲雄
    情報処理学会論文誌 59 11 1965 - 1977 2018年11月 [査読有り][通常論文]
     
    アマチュア作曲の普及を背景として作曲に興味を持つ人が増えているが,音楽知識や作曲スキルに乏しい初心者にとって作曲は容易ではない.本論文では,メロディの一部は作れたが続きが浮かばないという初心者の問題に着目し,小節間で一貫したメロディの作曲を支援するシステムを提案する.入力メロディの先に続く候補メロディを複数提示することで初心者の作曲支援が可能であると考え,予測変換のアイデアを作曲に適用することで候補メロディを提示することを試みる.また,実際に提案手法によって候補メロディを生成して確認したところ,候補メロディの提示アルゴリズムには改善の余地があることが分かった.これをふまえ,本論文では提案手法の改善にも取り組み,候補メロディの質の向上も試みた.提案システムをGUIアプリケーションとして実装したうえで,提案手法の有効性と改善の有効性の評価実験を行った.評価実験1では提案手法で用いているメロディ生成手法と辞書の比較評価を行い,マルコフ過程とパターンマッチングを組み合わせ,単語辞書と例文辞書の両方を用いる提案手法の有効性を確認することができた.評価実験2では改善前後のシステムで生成したメロディの比較評価を行い,改善後のメロディに対して評価得点が向上したことで改善の有効性を確認することができた.
  • Alexey Chistyakov, María T. Soto-Sanfiel, Takeo Igarashi, Daisuke Sakamoto, Jordi Carrabina
    Profesional de la Informacion 27 5 1116 - 1127 2018年09月01日 
    The objective of the present research is to observe to what extent the stereoscopic effect presents a solution for enhancement of user interactions in the Web context. This paper describes an experiment conducted to detect differences in perception between 2D and 3D graphical user interfaces of an e-Commerce web application. The results of the conducted user study among 39 participants indicate significantly higher performance of the 2D interface in terms of efficiency, satisfaction, and, consequently, overall usability. Therefore, for the studied sample, the stereoscopic effect had mostly negative impact on user interactions.
  • Hiroki Kurosawa, Daisuke Sakamoto, Tetsuo Ono
    Proceedings of the 20th International Conference on Human-Computer Interaction with Mobile Devices and Services, MobileHCI 2018, Barcelona, Spain, September 03-06, 2018 43:1-43:11  ACM 2018年09月 [査読有り][通常論文]
  • 春日 遥, 坂本 大介, 棟方 渚, 小野 哲雄
    情報処理学会論文誌 59 8 1520 - 1531 2018年08月 [査読有り][通常論文]
     
    ペット動物は人類の最も古い友人である.人々は彼らと生活を営み,今日では家庭において家族としてのペットと人の関係が研究されてきた.近年になってコミュニケーション・ロボットの登場により,家庭における人とペット動物に加え社会的ロボットを考慮した3者関係に注目した研究分野が生まれつつある.本研究では,社会的ロボットが家庭における人とペット動物の関係に対してどのような影響を与えるのかを調査するために実験的なフィールド調査を行った.調査には10家庭22人と12頭のペット動物(犬が4頭,猫が8頭)が参加した.調査においては社会的ロボットとして小型人型ロボットNAOを使用し,各家庭において小型人型ロボットと人,ペット動物が対話する様子の観察を行った.対話ではペット動物に対してポジティブに話しかける正条件と,相対的にネガティブに話しかける負条件の2つのシナリオで調査を実施した.両条件では約2分間の対話シナリオのうち,約30秒間のロボットからペット動物への発話内容が異なった.結果として,ロボットのペット動物に対する発話内容と態度の違いが,参加者からロボットへの印象に影響を与えていた.
  • Suganuma S, Sakamoto D, Shimoyama H
    JMIR mental health 5 3 e10454  2018年07月 [査読有り][通常論文]
  • Yuki Koyama, Issei Sato, Daisuke Sakamoto, Takeo Igarashi
    ACM TRANSACTIONS ON GRAPHICS 36 4 48:1-48:11  2017年07月 [査読有り][通常論文]
     
    Parameter tweaking is a common task in various design scenarios. For example, in color enhancement of photographs, designers tweak multiple parameters such as "brightness" and "contrast" to obtain the best visual impression. Adjusting one parameter is easy; however, if there are multiple correlated parameters, the task becomes much more complex, requiring many trials and a large cognitive load. To address this problem, we present a novel extension of Bayesian optimization techniques, where the system decomposes the entire parameter tweaking task into a sequence of one-dimensional line search queries that are easy for human to perform by manipulating a single slider. In addition, we present a novel concept called crowd-powered visual design optimizer, which queries crowd workers, and provide a working implementation of this concept. Our single-slider manipulation microtask design for crowdsourcing accelerates the convergence of the optimization relative to existing comparison-based microtask designs. We applied our framework to two different design domains: photo color enhancement and material BRDF design, and thereby showed its applicability to various design domains.
  • Hiroaki Mikami, Daisuke Sakamoto, Takeo Igarashi
    Conference on Human Factors in Computing Systems - Proceedings 2017- 6208 - 6219 2017年05月02日 [査読有り][通常論文]
     
    Experimentation plays an essential role in exploratory programming, and programmers apply version control operations when switching the part of the source code back to the past state during experimentation. However, these operations, which we refer to as micro-versioning, are not well supported in current programming environments. We first examined previous studies to clarify the requirements for a micro-versioning tool. We then developed a micro-versioning tool that displays visual cues representing possible micro-versioning operations in a textual code editor. Our tool includes a history model that generates meaningful candidates by combining a regional undo model and tree-structured undo model. The history model uses code executions as a delimiter to segment text edit operations into meaning groups. A user study involving programmers indicated that our tool satisfies the above-mentioned requirements and that it is useful for exploratory programming. Copyright is held by the owner/author(s). Publication rights licensed to ACM.
  • Hayashi, K., Sakamoto, D., K, a, T., Shiomi, M., Koizumi, S., Ishiguro, H., Ogasawara, T., Hagita, N.
    Human-Robot Interaction in Social Robotics 2017年
  • Shiomi, M., Sakamoto, D., K, a, T., Ishi, C.T., Ishiguro, H., Hagita, N.
    Human-Robot Interaction in Social Robotics 2017年
  • Haruka Kasuga, Daisuke Sakamoto, Nagisa Munekata, Tetsuo Ono
    Proceedings of the 5th International Conference on Human Agent Interaction, HAI 2017, Bielefeld, Germany, October 17 - 20, 2017 61 - 69 ACM 2017年 [査読有り][通常論文]
  • Chia-Ming Chang, Koki Toda, Daisuke Sakamoto, Takeo Igarashi
    AUTOMOTIVEUI 2017: PROCEEDINGS OF THE 9TH INTERNATIONAL CONFERENCE ON AUTOMOTIVE USER INTERFACES AND INTERACTIVE VEHICULAR APPLICATIONS 65 - 73 2017年 [査読有り][通常論文]
     
    Self-driving technologies have been increasingly developed and tested in recent years (e.g., Volvo's and Google's self-driving cars). However, only a limited number of investigations have so far been conducted into communication between self-driving cars and pedestrians. For example, when a pedestrian is about to cross a street, that pedestrian needs to know the intension of the approaching self-driving car. In the present study, we designed a novel interface known as "Eyes on a Car" to address this problem. We added eyes onto a car so as to establish eye contact communication between that car and pedestrians. The car looks at the pedestrian in order to indicate its intention to stop. This novel interface design was evaluated via a virtual reality (VR) simulated environment featuring a street-crossing scenario. The evaluation results show that pedestrians can make the correct street-crossing decision more quickly if the approaching car has the novel interface "eyes" than in the case of normal cars. In addition, the results show that pedestrians feel safer with regard to crossing a street if the approaching car has eyes and if the eyes look at them.
  • Kazuyo Mizuno, Daisuke Sakamoto, Takeo Igarashi
    IS and T International Symposium on Electronic Imaging Science and Technology 58 - 69 2017年 [査読有り][通常論文]
     
    Category search is a searching activity where the user has an example image and searches for other images of the same category. This activity often requires appropriate keywords of target categories making it difficult to search images without prior knowledge of appropriate keywords. Text annotations attached to images are a valuable resource for helping users to find appropriate keywords for the target categories. We propose an image exploration system in this article for category image search without the prior knowledge of category keywords. Our system integrates content-based and keyword-based image exploration and seamlessly switches exploration types according to user interests. The system enables users to learn target categories both in image and keyword representation through exploration activities. Our user study demonstrated the effectiveness of image exploration using our system, especially for the search of images with unfamiliar category compared to the single-modality image search.
  • Mari Hirano, Kanako Ogura, Mizuho Kitahara, Daisuke Sakamoto, Haruhiko Shimoyama
    Health Psychology Open 4 1 2055102917707185  2017年 [査読有り][通常論文]
     
    Most of computerized cognitive behavioral therapy targeted restoration and few have targeted primary prevention. The purpose of this study is to obtain the knowledge for further development on preventive mental healthcare application. We developed a personal mental healthcare application which aimed to give users the chance to manage their mental health by self-monitoring and regulating their behavior. Through the 30-day field trial, the results showed improvement of mood score through conducting of suggested action, and the depressive mood of the participants was significantly decreased after the trial. The possibility of application and further problem was confirmed.
  • 杉浦裕太, LEE Calista, 尾形正泰, WITHANA Anusha, 坂本大介, 牧野泰才, 五十嵐健夫, 稲見昌彦
    情報処理学会論文誌ジャーナル(Web) 57 12 2542‐2553 (WEB ONLY)  2016年12月 [査読有り][通常論文]
  • 尉林暉, 杉浦裕太, 坂本大介, TOBY Chong, 宮田なつき, 多田充徳, 大隈隆史, 蔵田武志, 新村猛, 持丸正明, 五十嵐健夫
    情報処理学会論文誌ジャーナル(Web) 57 12 2610‐2616 (WEB ONLY)  2016年12月 [査読有り][通常論文]
  • Morihiro Nakamura, Yuki Koyama, Daisuke Sakamoto, Takeo Igarashi
    COMPUTER GRAPHICS FORUM 35 7 323 - 332 2016年10月 [査読有り][通常論文]
     
    We present an interactive design system for designing free-formed bamboo-copters, where novices can easily design free-formed, even asymmetric bamboo-copters that successfully fly. The designed bamboo-copters can be fabricated using digital fabrication equipment, such as a laser cutter. Our system provides two useful functions for facilitating this design activity. First, it visualizes a simulated flight trajectory of the current bamboo-copter design, which is updated in real time during the user's editing. Second, it provides an optimization function that automatically tweaks the current bamboo-copter design such that the spin quality-how stably it spins-and the flight quality-how high and long it flies-are enhanced. To enable these functions, we present non-trivial extensions over existing techniques for designing free-formed model airplanes [UKSI14], including a wing discretization method tailored to free-formed bamboo-copters and an optimization scheme for achieving stable bamboo-copters considering both spin and flight qualities.
  • Kenji Suzuki, Kazumasa Okabe, Ryuuki Sakamoto, Daisuke Sakamoto
    Proceedings of the 18th International Conference on Human-Computer Interaction with Mobile Devices and Services, MobileHCI 2016 478 - 482 2016年09月06日 [査読有り][通常論文]
     
    We present a concept of using a movable background to navigate a caret on small mobile devices. The standard approach to selecting text on mobile devices is to directly touch the location on the text that a user wants to select. This is problematic because the user's finger hides the area to select. Our concept is to use a movable background to navigate the caret. Users place a caret by tapping on the screen and then move the background by touching and dragging. In this method, the caret is fixed on the screen and the user drags the background text to navigate the caret. We compared our technique with the iPhone's default UI and found that even though participants were using our technique for the first time, average task completion time was not different or even faster than Default UI in the case of the small font size and got a significantly higher usability score than Default UI.
  • Daisuke Sakamoto, Yuta Sugiura, Masahiko Inami, Takeo Igarashi
    COMPUTER 49 7 20 - 25 2016年07月 [査読有り][通常論文]
  • Exploring subtle foot plantar-based gestures using sock-style pressure sensors
    Koumei Fukahori, Daisuke Sakamoto, Takeo Igarashi
    Computer Software 33 2 116 - 124 2016年05月01日 
    We propose subtle foot-based gestures named foot plantar-based (FPB) gestures that are used with sockstyle pressure sensors. In this system, the user can control a computing device by changing his or her foot plantar distributions, e.g., pressing the floor with his or her toe. Because such foot movement is subtle, it is suitable for use especially in a public space such as a crowded train. In this work, we focus on a user-defined gesture that is designed by the end-users, not developers of this system. We first conduct a guessability study that asks people what is the appropriate gesture for a specific command to control the computing device. Then, we implement a gesture recognizer with a machine learning technique. To avoid unexpected gesture activations, we also collect foot plantar pressure patterns made during daily activities such as walking, as negative training data. Finally, we conclude with several applications to further illustrate the utility of FPB gestures.
  • 深堀孔明, 坂本大介, 五十嵐健夫
    コンピュータソフトウェア 33 2 2_116‐2_124(J‐STAGE)  2016年04月 [査読有り][通常論文]
  • 鈴木良平, 坂本大介, 五十嵐健夫
    コンピュータソフトウェア 33 1 1.103-1.110 (J-STAGE) - 1_110 日本ソフトウェア科学会 2016年04月 [査読有り][通常論文]
     
    GPS座標値や演技の良し悪し,試合状況といった注釈情報をビデオ録画時に埋め込んでおくことによって,カット処理やタイミングに合わせたエフェクトの生成なとビデオ編集を支援する手法を提案する.我々が提案する手法では,注釈情報を表すデジタルデータを人間には聴き取りづらい高域の音声信号に変換し,その信号をビデオカメラの近くに置いたデバイススのスピーカから送出する.その音声信号を映像とともに記録しておき,編集時にその情報を抽出することで,編集を支援する.本手法で埋め込まれる音声信号は完全に不可聴ではないが,フィルタにより音質を大きく落とすことなく音声信号から取り除くことができる.また,注釈信号埋め込みの信頼性や音声データの変換に対する注釈信号の耐久性を,実際の利用場面を想定した実験により評価し,本手法が高い実用性を備えることを検証した.本論文では提案手法を使用した複数の映像編集アプリケーションを例示し,注釈情報を用いることで実現される様々な新しい映像制作技法の可能性を議論する.
  • Yuki Koyama, Daisuke Sakamoto, Takeo Igarashi
    34TH ANNUAL CHI CONFERENCE ON HUMAN FACTORS IN COMPUTING SYSTEMS, CHI 2016 2520 - 2532 2016年 [査読有り][通常論文]
     
    Color enhancement is a very important aspect of photo editing. Even when photographers have tens of or hundreds of photographs, they must enhance each photo one by one by manually tweaking sliders in software such as brightness and contrast, because automatic color enhancement is not always satisfactory for them. To support this repetitive manual task, we present self-reinforcing color enhancement, where the system implicitly and progressively learns the user's preferences by training on their photo editing history. The more photos the user enhances, the more effectively the system supports the user. We present a working prototype system called SelPh, and then describe the algorithms used to perform the self-reinforcement. We conduct a user study to investigate how photographers would use a self-reinforcing system to enhance a collection of photos. The results indicate that the participants were satisfied with the proposed system and strongly agreed that the self-reinforcing approach is preferable to the traditional workflow.
  • Shigeo Yoshida, Takumi Shirokura, Yuta Sugiura, Daisuke Sakamoto, Tetsuo Ono, Masahiko Inami, Takeo Igarashi
    IEEE COMPUTER GRAPHICS AND APPLICATIONS 36 1 62 - 69 2016年01月 [査読有り][通常論文]
  • 小山裕己, 坂本大介, 五十嵐健夫
    コンピュータソフトウェア 33 1 63‐77(J‐STAGE) - 1_77 日本ソフトウェア科学会 2016年 [査読有り][通常論文]
     
    視覚的なデジタルコンテンツの編集,例えば写真の色補正などにおいて,パラメタ調整は最も基本的な作業の1つであるが,特に調整すべきパラメタが多数ある場合には,デザイン空間,すなわちパラメタ空間を探索することに多くの時間と労力が必要となる.このようなパラメタ調整に基づく視覚デザインの探索を支援するため,本論文ではまず,パラメタ空間を解析することでデザインの「良し悪し」の空間分布を推定する手法を提案する.この推定はクラウドソーシングを用いたヒューマンコンピュテーションによって生成されるデータをもとに行われ,この推定の結果,ユーザはgoodness functionと呼ばれる,パラメタ空間中の任意のデザインに対してその「良し悪し」の程度を計算する関数を得ることができる.本論文では更に,そのようにして得られるgoodness functionを利用した視覚デザイン探索支援のための2 つの新しいユーザインタフェースを提案する.(1) Smart Suggestion は比較的「良い」デザインを選択的に提示する機能である.(2) VisOpt Slider は「良し悪し」の分布を対話的に可視化(Vis:visualization)する機能を有するスライダであり,更にユーザが値を編集している最中により「良い」パラメタへと対話的に最適化(Opt: optimization)する機能も有する.また,本論文では提案手法を4つの異なるデザイン領域に適用した結果も報告する.
  • 三上裕明, 坂本大介, 五十嵐健夫
    情報処理学会論文誌トランザクション プログラミング(Web) 8 4 1-14 (WEB ONLY)  2015年12月 [査読有り][通常論文]
  • Kenji Suzuki, Kazumasa Okabe, Ryuuki Sakamoto, Daisuke Sakamoto
    UIST 2015 - Adjunct Publication of the 28th Annual ACM Symposium on User Interface Software and Technology 79 - 80 2015年11月06日 [査読有り][通常論文]
     
    We present a "Fix and Slide" technique, which is a concept to use a movable background to place a caret insertion point and to select text on a mobile device. Standard approach to select text on mobile devices is touching to the text where a user wants to select, and sometimes pop-up menu is displayed and they choose "select" mode and then start to specify an area to be selected. A big problem is that the user's finger hides the area to select this is called a "fat finger problem." We use the movable background to navigate a caret. First a user places a caret by tapping on a screen and then moves the background by touching and dragging on a screen. In this situation, the caret is fixed on the screen so that the user can move the background to navigate the caret where the user wants to move the caret. We implement the Fix and Slide technique on iOS device (iPhone) to demonstrate the impact of this text selection technique on small mobile devices.
  • Hikaru Ibayashi, Yuta Sugiura, Daisuke Sakamoto, Natsuki Miyata, Mitsunori Tada, Takashi Okuma, Takeshi Kurata, Masaaki Mochimaru, Takeo Igarashi
    SIGGRAPH Asia 2015 Posters, SA 2015 24:1  2015年11月02日 [査読有り][通常論文]
     
    Architecture-scale design requires two different viewpoints: a small-scale internal view, i.e., a first-person view of the space to see local details as an occupant of the space, and a large-scale external view, i.e., a top-down view of the entire space to make global decisions when designing the space. Architects or designers need to switch between these two viewpoints, but this can be inefficient and time-consuming. We present a collaborative design system, Dollhouse, to address this problem. By using our system, users can discuss the design of the space from two viewpoints simultaneously. This system also supports a set of interaction techniques to facilitate communication between these two user groups.
  • Hikaru Ibayashi, Yuta Sugiura, Daisuke Sakamoto, Natsuki Miyata, Mitsunori Tada, Takashi Okuma, Takeshi Kurata, Masaaki Mochimaru, Takeo Igarashi
    SIGGRAPH Asia 2015 Emerging Technologies, SA 2015 8:1-8:2  2015年11月02日 [査読有り][通常論文]
     
    This research addresses architecture-scale problem-solving involving the design of living or working spaces, such as architecture and floor plans. Such design systems require two different viewpoints: A small-scale internal view, i.e., a first-person view of the space to see local details as an occupant of the space, and a large-scale external view, i.e., a top-down view of the entire space to make global decisions when designing the space. Architects or designers need to switch between these two viewpoints to make various decisions, but this can be inefficient and time-consuming. We present a system to address the problem, which facilitates asymmetric collaboration between users requiring these different viewpoints. One group of users comprises the designers of the space, who observe and manipulate the space from a top-down view using a large tabletop interface. The other group of users represents occupants of the space, who observe and manipulate the space based on internal views using head-mounted displays (HMDs). The system also supports a set of interaction techniques to facilitate communication between these two user groups. Our system can be used for the design of various spaces, such as offices, restaurants, operating rooms, parks, and kindergartens.
  • 杉浦裕太, 筧豪太, WHITANA Anusha, 坂本大介, 杉本麻樹, 五十嵐健夫, 稲見昌彦
    日本バーチャルリアリティ学会論文誌 20 3 209 - 217 特定非営利活動法人 日本バーチャルリアリティ学会 2015年09月 [査読有り][通常論文]
     
    We present the FuwaFuwa sensor module, a round, hand-size, wireless device for measuring the shape deformations of soft objects such as cushions and plush toys. It can be embedded in typical soft objects in the household without complex installation procedures and without spoiling the softness of the object because it requires no physical connection. Six LEDs in the module emit IR light in six orthogonal directions, and six corresponding photosensors measure the reflected light energy. One can easily convert almost any soft object into a touch-input device that can detect both touch position and surface displacement by embedding multiple FuwaFuwa sensor modules in the object. A variety of example applications illustrate the utility of the FuwaFuwa sensor module. An evaluation of the proposed deformation measurement technique confirms its effectiveness.
  • Yuki Koyama, Daisuke Sakamoto, Takeo Igarashi
    Special Interest Group on Computer Graphics and Interactive Techniques Conference, SIGGRAPH '15, Los Angeles, CA, USA, August 9-13, 2015, Posters Proceedings 2:1 - 1 ACM 2015年08月 [査読有り][通常論文]
  • 中嶋誠, 坂本大介, 五十嵐健夫
    情報処理学会論文誌ジャーナル(Web) 56 4 1317-1327 (WEB ONLY)  2015年04月 [査読有り][通常論文]
  • Naoki Sasaki, Hsiang-Ting Chen, Daisuke Sakamoto, Takeo Igarashi
    COMPUTER ANIMATION AND VIRTUAL WORLDS 26 2 185 - 194 2015年03月 [査読有り][通常論文]
     
    We present facetons, geometric modeling primitives designed for building architectural models especially effective for a virtual environment where six degrees of freedom input devices are available. A faceton is an oriented point floating in the air and defines a plane of infinite extent passing through the point. The polygonal mesh model is constructed by taking the intersection of the planes associated with the facetons. With the simple interaction of faceton, users can easily create 3D architecture models. The faceton primitive and its interaction reduce the overhead associated with standard polygonal mesh modeling, where users have to manually specify vertexes and edges which could be far away. The faceton representation is inspired by the research on boundary representations (B-rep) and constructive solid geometry, but it is driven by a novel adaptive bounding algorithm and is specifically designed for 3D modeling activities in an immersive virtual environment. We describe the modeling method and our current implementation. The implementation is still experimental but shows potential as a viable alternative to traditional modeling methods. Copyright (c) 2014 John Wiley & Sons, Ltd.
  • 坂本大介, 小松孝徳, 五十嵐健夫
    ヒューマンインタフェース学会論文誌 17 1/4 85 - 95 2015年02月 [査読有り][通常論文]
  • Koumei Fukahori, Daisuke Sakamoto, Takeo Igarashi
    CHI 2015: PROCEEDINGS OF THE 33RD ANNUAL CHI CONFERENCE ON HUMAN FACTORS IN COMPUTING SYSTEMS 3019 - 3028 2015年 [査読有り][通常論文]
     
    We propose subtle foot-based gestures named foot plantar-based (FPB) gestures that are used with sock-placed pressure sensors. In this system, the user can control a computing device by changing his or her foot plantar distributions, e.g., pressing the floor with his/her toe. Because such foot movement is subtle, it is suitable for use especially in a public space such as a crowded train. In this study, we first conduct a guessability study to design a user-defined gesture set for interaction with a computing device. Then, we implement a gesture recognizer with a machine learning technique. To avoid unexpected gesture activations, we also collect foot plantar pressure patterns made during daily activities such as walking, as negative training data. Additionally, we evaluate the unobservability of FPB gestures by using crowdsourcing. Finally, we conclude with several applications to further illustrate the utility of FPB gestures.
  • Ryohei Suzuki, Daisuke Sakamoto, Takeo Igarashi
    CHI 2015: PROCEEDINGS OF THE 33RD ANNUAL CHI CONFERENCE ON HUMAN FACTORS IN COMPUTING SYSTEMS 57 - 66 2015年 [査読有り][通常論文]
     
    We present a video annotation system called "AnnoTone", which can embed various contextual information describing a scene, such as geographical location. Then the system allows the user to edit the video using this contextual information, enabling one to, for example, overlay with map or graphical annotations. AnnoTone converts annotation data into high-frequency audio signals (which are inaudible to the human ear), and then transmits them from a smartphone speaker placed near a video camera. This scheme makes it possible to add annotations using standard video cameras with no requirements for specific equipment other than a smartphone. We designed the audio watermarking protocol using dual-tone multi-frequency signaling, and developed a general-purpose annotation framework including an annotation generator and extractor. We conducted a series of performance tests to understand the reliability and the quality of the watermarking method. We then created several examples of video-editing applications using annotations to demonstrate the usefulness of Annotone, including an After Effects plugin.
  • 濱田 健夫, 谷口 祥平, 池島 紗知子, 清水 敬輔, 坂本 大介, 長谷川 晶一, 稲見 昌彦, 五十嵐 健夫
    日本バーチャルリアリティ学会論文誌 20 3 229 - 238 特定非営利活動法人 日本バーチャルリアリティ学会 2015年 [査読有り][通常論文]
     
    We propose a puppet-based user interface - named Avatouch - for specifying massage position without looking at the control device. Users can indicate massage position on their backs by touching the puppet's one (Figurel). Besides, we also develop a massage chair system with both a push-button interface and Avatouch. Experimental results confirm that almost half of subjects kept Avatouch well away from their faces. Furthermore, two participants modulated massage position without looking at the plushie. In this paper, we firstly explain about Avatouch. Then, we describe a massage chair system and a user study to observe how people use each interface. At the end of this paper, we will discuss the advantage and disadvantage of Avatouch.
  • Takahito Hamanaka, Daisuke Sakamoto, Takeo Igarashi
    ACM International Conference Proceeding Series 2014- 13:1-13:10  2014年11月11日 [査読有り][通常論文]
     
    We present a system called Aibiki, which can support users in practicing the shamisen, a three-stringed Japanese musical instrument, via an automatic and adaptive score scroll. We chose Nagauta, as an example of a type of shamisen music. Each piece typically lasts 10-40 min furthermore, both hands are required to play the shamisen, and it is not desirable to turn pages manually during a performance. In addition, there are some characteristic issues that are particular to the shamisen, including the variable tempo of the music and the unique timbre of the instrument, which makes pitch detection difficult using standard techniques. In this work, we describe an application that automatically scrolls through a musical score, initially at a predefined tempo. Because there is often a difference between the predefined tempo and tempo with which the musician plays the piece, the application adjusts speed of the score scroll based on the input from a microphone. We evaluated the performance of the application via a user study. We find that the system was able to scroll the score in time to the actual performance, and that the system was useful for practicing and playing the shamisen.
  • Jun Kato, Daisuke Sakamoto, Takeo Igarashi, Masataka Goto
    HAI 2014 - Proceedings of the 2nd International Conference on Human-Agent Interaction 345 - 351 2014年10月29日 [査読有り][通常論文]
     
    In this paper, we propose a to-do list interface for sharing tasks between human and multiple agents including robots and software personal assistants. While much work on software architectures aims to achieve efficient (semi-)autonomous task coordination among human and agents, little work on user interfaces can be found for user-oriented flexible task coordination. Instead, most of the existing human-agent interfaces are designed to command a single agent to handle specific kinds of tasks. Meanwhile, our interface is designed to be a platform to share any kinds of tasks between users and multiple agents. When agents can handle the task, they ask for details and permission to execute it. Otherwise, they try supporting users or just keep silent. New tasks can be registered not only by humans but also by agents when errors occur that can only be fixed by human users. We present the interaction design and implementation of the interface, Sharedo, with three example agents, followed by brief user feedback collected from a preliminary user study.
  • Yuki Koyama, Daisuke Sakamoto, Takeo Igarashi
    UIST 2014 - Proceedings of the 27th Annual ACM Symposium on User Interface Software and Technology 65 - 74 2014年10月05日 [査読有り][通常論文]
     
    Parameter tweaking is one of the fundamental tasks in the editing of visual digital contents, such as correcting photo color or executing blendshape facial expression control. A problem with parameter tweaking is that it often requires much time and effort to explore a high-dimensional parameter space. We present a new technique to analyze such highdimensional parameter space to obtain a distribution of human preference. Our method uses crowdsourcing to gather pairwise comparisons between various parameter sets. As a result of analysis, the user obtains a goodness function that computes the goodness value of a given parameter set. This goodness function enables two interfaces for exploration: Smart Suggestion, which provides suggestions of preferable parameter sets, and VisOpt Slider, which interactively visualizes the distribution of goodness values on sliders and gently optimizes slider values while the user is editing. We created four applications with different design parameter spaces. As a result, the system could facilitate the user's design exploration.
  • Fangzhou Wang, Yang Li, Daisuke Sakamoto, Takeo Igarashi
    International Conference on Intelligent User Interfaces, Proceedings IUI 169 - 178 2014年 [査読有り][通常論文]
     
    One of the difficulties with standard route maps is accessing to multi-scale routing information. The user needs to display maps in both a large scale to see details and a small scale to see an overview, but this requires tedious interaction such as zooming in and out. We propose to use a hierarchical structure for a route map, called a "Route Tree", to address this problem, and describe an algorithm to automatically construct such a structure. A Route Tree is a hierarchical grouping of all small route segments to allow quick access to meaningful large and small-scale views. We propose two Route Tree applications, "RouteZoom" for interactive map browsing and "TreePrint" for route information printing, to show the applicability and usability of the structure. We conducted a preliminary user study on RouteZoom, and the results showed that RouteZoom significantly lowers the interaction cost for obtaining information from a map compared to a traditional interactive map. © 2014 ACM.
  • Koumei Fukahori, Daisuke Sakamoto, Jun Kato, Takeo Igarashi
    Conference on Human Factors in Computing Systems - Proceedings 1453 - 1458 2014年 [査読有り][通常論文]
     
    Programmers write and edit their source code in a text editor. However, when they design the look-and-feel of a game application such as an image of a game character and an arrangement of a button, it would be more intuitive to edit the application by directly interacting with these objects on a game window. Although modern game engines realize this facility, they use a highly structured framework and limit what the programmer can edit. In this paper, we present CapStudio, a development environment for a visual application with an interactive screencast. A screencast is a movie player-like output window with code editing functionality. The screencast works with a traditional text editor. Modifications of source code in the text editor and visual elements on the screencast will be immediately reflected on each other. We created an example application and confirmed the feasibility of our approach.
  • Makoto Nakajima, Daisuke Sakamoto, Takeo Igarashi
    Conference on Human Factors in Computing Systems - Proceedings 321 - 330 2014年 [査読有り][通常論文]
     
    We present an animation creation workflow for integrating offline physical, painted media into the digital authoring of Flash-style animations. Generally, animators create animations with standardized digital authoring software. However, the results tend to lack the individualism or atmosphere of physical media. In contrast, illustrators have skills in painting physical media but have limited experience in animation. To incorporate their skills, we present a workflow that integrates the offline painting and digital animation creation processes in a labor-saving manner. First, a user makes a rough sketch of the visual elements and defines their movements using our digital authoring software with a sketch interface. Then these images are exported to printed pages, and users can paint using offline physical media. Finally, the work is scanned and imported back into the digital content, forming a composite animation that combines digital and physical media. We present an implementation of this system to demonstrate its workflow. We also discuss the advantages of using physical media in digital animations through design evaluations.
  • James E. Young, Takeo Igarashi, Ehud Sharlin, Ehud Sakamoto, Jeffrey Allen
    ACM Transactions on Interactive Intelligent Systems 3 4 23:1-23:36  2014年 [査読有り][通常論文]
     
    We present a series of projects for end-user authoring of interactive robotic behaviors, with a particular focus on the style of those behaviors: we call this approach Style-by-Demonstration (SBD).We provide an overview introduction of three different SBD platforms: SBD for animated character interactive locomotion paths, SBD for interactive robot locomotion paths, and SBD for interactive robot dance. The primary contribution of this article is a detailed cross-project SBD analysis of the interaction designs and evaluation approaches employed, with the goal of providing general guidelines stemming from our experiences, for both developing and evaluating SBD systems. In addition, we provide the first full account of our Puppet Master SBD algorithm, with an explanation of how it evolved through the projects. © 2014 ACM.
  • Daniel Saakes, Vipul Choudhary, Daisuke Sakamoto, Masahiko Inami, Takeo Igarashi
    23rd International Conference on Artificial Reality and Telexistence, ICAT 2013, Tokyo, Japan, December 11-13, 2013 13 - 19 IEEE Computer Society 2013年12月 [査読有り][通常論文]
  • Naoki Sasaki, Hsiang-Ting Chen, Daisuke Sakamoto, Takeo Igarashi
    Proceedings of the ACM Symposium on Virtual Reality Software and Technology, VRST 77 - 82 2013年 [査読有り][通常論文]
     
    We present faceton, a geometric modeling primitive designed for building architectural models, using a six degrees of freedom (DoF) input device in a virtual environment (VE). A faceton is given as an oriented point floating in the air and defines a plane of infinite extent passing through the point. The polygonal mesh model is constructed by taking the intersection of the planes associated with the facetons. With the simple drag-and-drop and group interaction of faceton, users can easily create 3D architecture models in the VE. The faceton primitive and its interaction reduce the overhead associated with standard polygonal mesh modeling in VE, where users have to manually specify vertexes and edges which could be far away. The faceton representation is inspired by the research on boundary representations (B-rep) and constructive solid geometry (CSG), but it is driven by a novel adaptive bounding algorithm and is specifically designed for the 3D modeling activities in an immersive virtual environment. Copyright © 2013 ACM.
  • Daisuke Sakamoto, Takanori Komatsu, Takeo Igarashi
    MobileHCI 2013 - Proceedings of the 15th International Conference on Human-Computer Interaction with Mobile Devices and Services 69 - 78 2013年 [査読有り][通常論文]
     
    We propose a technique called voice augmented manipulation (VAM) for augmenting user operations in a mobile environment. This technique augments user interactions on mobile devices, such as finger gestures and button pressing, with voice. For example, when a user makes a finger gesture on a mobile phone and voices a sound into it, the operation will continue until stops making the sound or makes another finger gesture. The VAM interface also provides a button-based interface, and the function connected to the button is augmented by voiced sounds. Two experiments verified the effectiveness of the VAM technique and showed that repeated finger gestures significantly decreased compared to current touch-input techniques, suggesting that VAM is useful in supporting user control in a mobile environment. © 2013 ACM.
  • Ko Mizoguchi, Daisuke Sakamoto, Takeo Igarashi
    HUMAN-COMPUTER INTERACTION - INTERACT 2013, PT IV 8120 603 - 610 2013年 [査読有り][通常論文]
     
    A scrollbar is the most basic function of a graphical user interface. It is usually displayed on one side of an application window when a displayed document is larger than the window. However, the scrollbar is mostly presented as a simple bar without much information, and there is still plenty of room for improvement. In this paper, we propose an overview scrollbar that displays an overview of the entire document on it and implemented four types of overview scrollbars that use different compression methods to render the overviews. We conducted a user study to investigate how people use these scrollbars and measured the performance of them. Our results suggest that overview scrollbars are more usable than is a traditional scrollbar when people search targets that are recognizable in overview.
  • Jun Kato, Daisuke Sakamoto, Takeo Igarashi
    Conference on Human Factors in Computing Systems - Proceedings 3097 - 3100 2013年 [査読有り][通常論文]
     
    Current programming environments use textual or symbolic representations. While these representations are appropriate for describing logical processes, they are not appropriate for representing raw values such as human and robot posture data, which are necessary for handling gesture input and controlling robots. To address this issue, we propose Picode, a text-based development environment augmented with inline visual representations: photos of human and robots. With Picode, the user first takes a photo to bind it to posture data. She then drag-and-drops the photo into the code editor, where it is displayed as an inline image. A preliminary user study revealed positive effects of taking photos on the programming experience. Copyright © 2013 ACM.
  • Yuta Sugiura, Calista Lee, Masayasu Ogata, Anusha Indrajith Withana, Yasutoshi Makino, Daisuke Sakamoto, Masahiko Inami, Takeo Igarashi
    CHI Conference on Human Factors in Computing Systems, CHI '12, Extended Abstracts Volume, Austin, TX, USA, May 5-10, 2012 1443 - 1444 ACM 2012年05月 [査読有り][通常論文]
  • Shigeo Yoshida, Daisuke Sakamoto, Yuta Sugiura, Masahiko Inami, Takeo Igarashi
    SIGGRAPH Asia 2012 Emerging Technologies, SA 2012 2012年 [査読有り][通常論文]
     
    RoboJockey is an interface for creating robot behavior and giving people a new entertainment experience with robots, in particular, making robots dance, such as the "Disc jockey" and "Video jockey" (Figure 1, left). The users can create continuous robot dance behaviors on the interface by using a simple visual language (Figure 1, right). The system generates music with beat and choreographs the robots in a dance using user-created behaviors. The RoboJockey has a multi-touch tabletop interface, which gives users a multi-user collaboration every object is designed as a circle, and it can be operated from all positions around the tabletop interface. RoboJockey supports a humanoid robot, which has a capable of expressing human like dance behaviors (Figure 1, center). Copyright © 2012 ACM, Inc.
  • Amy Wibowo, Daisuke Sakamoto, Jun Mitani, Takeo Igarashi
    Proceedings of the 6th International Conference on Tangible, Embedded and Embodied Interaction, TEI 2012 99 - 102 2012年 [査読有り][通常論文]
     
    This paper introduces DressUp, a computerized system for designing dresses with 3D input using the form of the human body as a guide. It consists of a body-sized physical mannequin, a screen, and tangible prop tools for drawing in 3D on and around the mannequin. As the user draws, he/she modifies or creates pieces of digital cloth, which are displayed on a model of the mannequin on the screen. We explore the capacity of our 3D input tools to create a variety of dresses. We also describe observations gained from users designing actual physical garments with the system. © 2012 ACM.
  • Genki Furumi, Daisuke Sakamoto, Takeo Igarashi
    ITS 2012 - Proceedings of the ACM Conference on Interactive Tabletops and Surfaces 193 - 196 2012年 [査読有り][通常論文]
     
    The screen of a tabletop computer is often occluded by physical objects such as coffee cups. This makes it difficult to see the virtual elements under the physical objects (visibility) and manipulate them (manipulability). Here we present a user interface widget, called "SnapRail," to address these problems, especially occlusion of a manipulable collection of virtual discrete elements such as icons. SnapRail detects a physical object on the surface and the virtual elements under the object. It then snaps the virtual elements to a rail widget that appears around the object. The user can then manipulate the virtual elements along the rail widget. We conducted a preliminary user study to evaluate the potential of this interface and collect initial feedback. The SnapRail interface received positive feedback from participants of the user study. © 2012 ACM.
  • Kohei Matsumura, Daisuke Sakamoto, Masahiko Inami, Takeo Igarashi
    International Conference on Intelligent User Interfaces, Proceedings IUI 305 - 306 2012年 [査読有り][通常論文]
     
    We present universal earphones that use both a proximity sensor and a skin conductance sensor and we demonstrate several implicit interaction techniques they achieve by automatically detecting the context of use. The universal earphones have two main features. The first involves detecting the left and right sides of ears, which provides audio to either ear, and the second involves detecting the shared use of earphones and this provides mixed stereo sound to both earphones. These features not merely free users from having to check the left and right sides of earphones, but they enable them to enjoy sharing stereo audio with other people.
  • Yuta Sugiura, Calista Lee, Masayasu Ogata, Anusha Withana, Yasutoshi Makino, Daisuke Sakamoto, Masahiko Inami, Takeo Igarashi
    Conference on Human Factors in Computing Systems - Proceedings 725 - 734 2012年 [査読有り][通常論文]
     
    PINOKY is a wireless ring-like device that can be externally attached to any plush toy as an accessory that animates the toy by moving its limbs. A user is thus able to instantly convert any plush toy into a soft robot. The user can control the toy remotely or input the movement desired by moving the plush toy and having the data recorded and played back. Unlike other methods for animating plush toys, PINOKY is non-intrusive, so alterations to the toy are not required. In a user study, 1) the roles of plush toys in the participants' daily lives were examined, 2) how participants played with plush toys without PINOKY was observed, 3) how they played with plush toys with PINOKY was observed, and their reactions to the device were surveyed. On the basis of the results, potential applications were conceptualized to illustrate the utility of PINOKY. Copyright 2012 ACM.
  • Jeffrey Allen, James E. Young, Daisuke Sakamoto, Takeo Igarashi
    Proceedings of the Designing Interactive Systems Conference, DIS '12 592 - 601 2012年 [査読有り][通常論文]
     
    As robots continue to enter people's everyday spaces, we argue that it will be increasingly important to consider the robots' movement style as an integral component of their interaction design. That is, aspects of the robot's movement which are not directly related to a task at hand (e.g., pick up a ball) can have a strong impact on how people perceive that action (e.g., aggressively or hesitantly). We call these elements the movement style. We believe that perceptions of this kind of style will be highly dependent on the culture, group, or individual, and so people will need to have the ability to customize their robot. Therefore, in this work we use Style by Demonstration, a style focus on the more-traditional programming by demonstration technique, and present the Puppet Dancer system, an interface for constructing paired and interactive robotic dances. In this paper we detail the Puppet Dancer interface and interaction design, explain our new algorithms for teaching dance by demonstration, and present the results from a formal qualitative study. © 2012 ACM.
  • Jun Kato, Daisuke Sakamoto, Takeo Igarashi
    Proceedings of the Designing Interactive Systems Conference, DIS '12 248 - 257 2012年 [査読有り][通常論文]
     
    There are many toolkits for physical UIs, but most physical UI applications are not locomotive. When the programmer wants to make things move around in the environment, he faces difficulty related to robotics. Toolkits for robot programming, unfortunately, are usually not as accessible as those for building physical UIs. To address this interdisciplinary issue, we propose Phybots, a toolkit that allows researchers and interaction designers to rapidly prototype applications with locomotive robotic things. The contributions of this research are the combination of a hardware setup, software API, its underlying architecture and a graphical runtime debug tool that supports the whole prototyping activity. This paper introduces the toolkit, applications and lessons learned from three user studies. © 2012 ACM.
  • Sharedo: To-doリストによる人-ロボット間のタスク共有
    加藤淳, 坂本大介, 五十嵐健夫
    第19回インタラクティブシステムとソフトウェアに関するワークショップ (WISS 2011) 2011年12月 [査読有り][通常論文]
  • PINOKY:ぬいぐるみを駆動するリング型のデバイス
    杉浦裕太, LeeCalista, 尾形正泰, 牧野泰才, 坂本大介, 稲見昌彦, 五十嵐健夫
    第19回インタラクティブシステムとソフトウェアに関するワークショップ (WISS 2011) 2011年12月 [査読有り][通常論文]
  • FuwaFuwa:反射型光センサによる柔軟物体への接触位置および圧力の計測手法の提案とその応用
    杉浦裕太, 筧豪太, ウィタナ アヌーシャ, リーカリスタ, 坂本大介, 杉本麻樹, 稲見昌彦, 五十嵐健夫
    エンタテインメントコンピューティング2011 (EC2011) 2011年10月07日 [査読有り][通常論文]
  • 加藤 淳, 坂本 大介, 稲見 昌彦, 五十嵐 健夫
    情報処理学会論文誌 52 4 1425 - 1437 情報処理学会 2011年04月15日 
    小型の移動ロボットは家庭での日常的なタスクを支援するアプリケーションが期待されており,タスクの指示において洗練されたユーザインタフェースが必要となる.しかし,Human-Computer Interaction研究者の多くを含むロボット工学の知識を持たないソフトウェアプログラマにとって,ロボットを用いたアプリケーションをプロトタイピングすることはいまだ容易とはいえない.そこで我々は,Graphical User Interfaceのように1APIコールで平面上のロボットや物体を移動させ,リスナで二次元座標値の変化イベントを取得することのできるツールキットAndyを開発した.Andyはロボットや物体の上面にビジュアルマーカを貼り付け,俯瞰カメラの撮像からマーカ検出することで作業空間床面上の二次元座標系を取得する.本稿では,ツールキットAndyの狙い,APIと実装の概要,ユーザスタディの方法と結果および関連研究について報告する.Small mobile robots are expected to be utilized for helping daily tasks at home. We need sophisticated user interfaces for them. However, prototyping of robot applications is still difficult for software programmers without prior knowledge of robotics including many researchers in the field of Human-Computer Interaction. We developed a software toolkit called "Andy", with which programmers can make robots move and push objects on a flat surface with one API call and receive their two-dimensional motion events by registering listeners. Design of the APIs is influenced by programming style of Graphical User Interface. Andy provides two-dimensional absolute coordinates on the surface by detecting visual markers attached to top surfaces of robots and objects from captured images of a ceiling-mounted camera. We will report the aim of the toolkit, summary of its APIs and implementation, method and results of user studies and related work.
  • 加藤 淳, 坂本 大介, 稲見 昌彦, 五十嵐 健夫
    情報処理学会論文誌 52 4 1425 - 1437 一般社団法人情報処理学会 2011年04月 [査読有り][通常論文]
     
    小型の移動ロボットは家庭での日常的なタスクを支援するアプリケーションが期待されており,タスクの指示において洗練されたユーザインタフェースが必要となる.しかし,Human-Computer Interaction研究者の多くを含むロボット工学の知識を持たないソフトウェアプログラマにとって,ロボットを用いたアプリケーションをプロトタイピングすることはいまだ容易とはいえない.そこで我々は,Graphical User Interfaceのように1APIコールで平面上のロボットや物体を移動させ,リスナで二次元座標値の変化イベントを取得することのできるツールキットAndyを開発した.Andyはロボットや物体の上面にビジュアルマーカを貼り付け,俯瞰カメラの撮像からマーカ検出することで作業空間床面上の二次元座標系を取得する.本稿では,ツールキットAndyの狙い,APIと実装の概要,ユーザスタディの方法と結果および関連研究について報告する.
  • 杉浦 裕太, 筧 豪太, 坂本 大介, アヌーシャウィタナ, 稲見 昌彦, 五十嵐 健夫
    情報処理学会論文誌 52 2 737 - 742 2011年02月15日 
    本稿では,人の歩行動作を模した指のジェスチャによる二足歩行ロボットへの動作指示手法を提案する.本インタフェースでは人が手を用いて,人の歩行動作を表現する際に行うジェスチャに注目し,これを小型のマルチタッチインタフェース上で再現することで二足歩行ロボットの歩行などの操作を実現する.本インタフェースを用いたアプリケーションとしてサッカー環境を構築し,公開デモンストレーションを行った.この観察結果から,本インタフェースに初めて触ったユーザであっても歩行や,高度なキック・ジャンプといった操作について柔軟に指示することが可能であることが確認された.We propose an operating method for bipedal robots by using two-fingered gestures on a multi-touch surface. We focus on finger gestures that people represent the human with moving fingers, such as walking, running, kicking and turning. These bipedal gestures are natural and intuitive enough for the end-users to control the humanoid robots. The system captures those finger gestures on a multi-touch display as the direct operation method. The capturing method is easy and simple, but robust enough for the entertainment applications. We show an example application with our proposed method, and demonstration at the international exhibition. We conclude with the results of observation and future implementation of our method.
  • 杉浦 裕太, 筧 豪太, 坂本 大介, アヌーシャウィタナ, 稲見 昌彦, 五十嵐 健夫
    情報処理学会論文誌 52 2 737 - 742 一般社団法人情報処理学会 2011年02月 [査読有り][通常論文]
     
    本稿では,人の歩行動作を模した指のジェスチャによる二足歩行ロボットへの動作指示手法を提案する.本インタフェースでは人が手を用いて,人の歩行動作を表現する際に行うジェスチャに注目し,これを小型のマルチタッチインタフェース上で再現することで二足歩行ロボットの歩行などの操作を実現する.本インタフェースを用いたアプリケーションとしてサッカー環境を構築し,公開デモンストレーションを行った.この観察結果から,本インタフェースに初めて触ったユーザであっても歩行や,高度なキック・ジャンプといった操作について柔軟に指示することが可能であることが確認された.
  • 吉田 成朗, 坂本 大介, 稲見 昌彦, 五十嵐 健夫
    ロボティクス・メカトロニクス講演会講演概要集 2011 _2A1-H05_1 - _2A1-H05_4 一般社団法人 日本機械学会 2011年 [査読無し]
     
    Robots are introduced in various environments and places such as offices and homes where we mundanely live. Particularly, one of the most expected functions of home robot is the transportation of objects in a living environment. This paper proposes an algorithm of object transportation under environments with objects. This algorithm is an expansion of the object transportation by dipole field algorithm so that robots can flexibly avoid objects. We compute the midpoints of the triangles that do not contain obstacles. We then use Dijkstra's algorithm to compute a path to move the robot to the object, and then compute a path to allow the robot to push the object to the goal using the dipole field algorithm.
  • Yuta Sugiura, Anusha Withana, Teruki Shinohara, Masayasu Ogata, Daisuke Sakamoto, Masahiko Inami, Takeo Igarashi
    SIGGRAPH Asia 2011 Emerging Technologies, SA'11 2011年 [査読有り][通常論文]
     
    We propose a cooperative cooking robot system that operates with humans in an open environment. The system can cook a meal by pouring various ingredients into a boiling pot on an induction heating cooker and adjusting the heating strength according to a recipe that is developed by the user. Our contribution is in the design of the system incorporating robotic- and human-specific elements in a shared workspace so as to achieve a cooperative rudimentary cooking capability. First, we provide a graphical user interface to display detailed cooking instructions to the user. Second, we use small mobile robots instead of built-in arms to save space, improve flexibility, and increase safety. Third, we use special cooking tools that are shared with the robot. We hope insights obtained in this study will be useful for the design of other household systems in the future. A previous version of our system has been presented [1]. This demonstration will show an extended version with a new robot and improved interaction design.
  • Yuta Sugiura, Gota Kakehi, Anusha Withana, Calista Lee, Daisuke Sakamoto, Maki Sugimoto, Masahiko Inami, Takeo Igarashi
    UIST'11 - Proceedings of the 24th Annual ACM Symposium on User Interface Software and Technology 509 - 516 2011年 [査読有り][通常論文]
     
    We present the FuwaFuwa sensor module, a round, hand-size, wireless device for measuring the shape deformations of soft objects such as cushions and plush toys. It can be embedded in typical soft objects in the household without complex installation procedures and without spoiling the softness of the object because it requires no physical connection. Six LEDs in the module emit IR light in six orthogonal directions, and six corresponding photosensors measure the reflected light energy. One can easily convert almost any soft object into a touch-input device that can detect both touch position and surface displacement by embedding multiple FuwaFuwa sensor modules in the object. A variety of example applications illustrate the utility of the FuwaFuwa sensor module. An evaluation of the proposed deformation measurement technique confirms its effectiveness. © 2011 ACM.
  • Gota Kakehi, Yuta Sugiura, Anusha Withana, Calista Lee, Naohisa Nagaya, Daisuke Sakamoto, Maki Sugimoto, Masahiko Inami, Takeo Igarashi
    ACM SIGGRAPH 2011 Emerging Technologies, SIGGRAPH'11 5  2011年 [査読有り][通常論文]
     
    Soft objects are widely used in our day-to-day lives, and provide both comfort and safety in contrast to hard objects. Also, soft objects are able to provide a natural and rich haptic sensation. In human-computer interaction, soft interfaces have been shown to be able to increase emotional attachment between human and machines, and increase the entertainment value of the interaction. We propose the FuwaFuwa sensor, a small, flexible and wireless module to effectively measure shape deformation in soft objects using IR-based directional photoreflectivity measurements. By embedding multiple FuwaFuwa sensors within a soft object, we can easily convert any soft object into a touch-input device able to detect both touch position and surface displacement. Furthermore, since it is battery-powered and equipped with wireless communication, it can be easily installed in any soft object. Besides that, because the FuwaFuwa sensor is small and wireless, it can be inserted into the soft object easily without affecting its soft properties.
  • Kexi Liu, Daisuke Sakamoto, Masahiko Inami, Takeo Igarashi
    29TH ANNUAL CHI CONFERENCE ON HUMAN FACTORS IN COMPUTING SYSTEMS 647 - 656 2011年 [査読有り][通常論文]
     
    As various home robots come into homes, the need for efficient robot task management tools is arising. Current tools are designed for controlling individual robots independently, so they are not ideally suitable for assigning coordinated action among multiple robots. To address this problem, we developed a management tool for home robots with a graphical editing interface. The user assigns instructions by selecting a tool from a toolbox and sketching on a bird's-eye view of the environment. Layering supports the management of multiple tasks in the same room. Layered graphical representation gives a quick overview of and access to rich information tied to the physical environment. This paper describes the prototype system and reports on our evaluation of the system.
  • Masahiro Shiomi, Daisuke Sakamoto, Takayuki Kanda, Carlos Toshinori Ishi, Hiroshi Ishiguro, Norihiro Hagita
    INTERNATIONAL JOURNAL OF SOCIAL ROBOTICS 3 1 27 - 40 2011年01月 [査読有り][通常論文]
     
    We developed a networked robot system in which ubiquitous sensors support robot sensing and a human operator processes the robot's decisions during interaction. To achieve semi-autonomous operation for a communication robot functioning in real environments, we developed an operator-requesting mechanism that enables the robot to detect situations that it cannot handle autonomously. Therefore, a human operator helps by assuming control with minimum effort. The robot system consists of a humanoid robot, floor sensors, cameras, and a sound-level meter. For helping people in real environments, we implemented such basic communicative behaviors as greetings and route guidance in the robot and conducted a field trial at a train station to investigate the robot system's effectiveness. The results attest to the high acceptability of the robot system in a public space and also show that the operator-requesting mechanism correctly requested help in 84.7% of the necessary situations; the operator only had to control 25% of the experiment time in the semi-autonomous mode with a robot system that successfully guided 68% of the visitors.
  • Foldy: GUI操作によるロボットへの服の畳み方の教示
    杉浦裕太, 坂本大介, Tabare Gowon, 高橋大樹, 稲見昌彦, 五十嵐健夫
    第18回インタラクティブシステムとソフトウェアに関するワークショップ (WISS 2010) 7 - 12 2010年12月 [査読有り][通常論文]
  • matereal: インタラクティブなロボットアプリケーションのプロトタイピング用ツールキット
    加藤淳, 坂本大介, 五十嵐健夫
    第18回インタラクティブシステムとソフトウェアに関するワークショップ (WISS 2010) 83 - 88 2010年12月 [査読有り][通常論文]
  • RoboJockey: 連続的なロボットパフォーマンスのためのインタフェース
    代蔵巧, 坂本大介, 杉浦裕太, 小野哲雄, 稲見昌彦, 五十嵐健夫
    インタラクション2010 インタラクティブ発表(プレミアム) 2010年03月 [査読有り][通常論文]
  • Walky: 指の擬人的な動作を用いた歩行ロボットへの操作手法
    杉浦裕太, 筧豪太, Anusha I. Withana, Charith L. Fernando, 坂本大介, 稲見昌彦, 五十嵐健夫
    インタラクション2010 インタラクティブ発表(プレミアム) 2010年03月 [査読有り][通常論文]
  • Takumi Shirokura, Daisuke Sakamoto, Yuta Sugiura, Tetsuo Ono, Masahiko Inami, Takeo Igarashi
    UIST 2010 - 23rd ACM Symposium on User Interface Software and Technology, Adjunct Proceedings 399 - 400 2010年 [査読有り][通常論文]
     
    We developed a RoboJockey (Robot Jockey) interface for coordinating robot actions, such as dancing - similar to "Disc jockey" and "Video jockey". The system enables a user to choreograph a dance for a robot to perform by using a simple visual language. Users can coordinate humanoid robot actions with a combination of arm and leg movements. Every action is automatically performed to background music and beat. The RoboJockey will give a new entertainment experience with robots to the end-users.
  • Jun Kato, Daisuke Sakamoto, Takeo Igarashi
    UIST 2010 - 23rd ACM Symposium on User Interface Software and Technology, Adjunct Proceedings 387 - 388 2010年 [査読有り][通常論文]
     
    We introduce a technique to detect simple gestures of "surfing" (moving a hand horizontally) on a standard keyboard by analyzing recorded sounds in real-time with a microphone attached close to the keyboard. This technique allows the user to maintain a focus on the screen while surfing on the keyboard. Since this technique uses a standard keyboard without any modification, the user can take full advantage of the input functionality and tactile quality of his favorite keyboard supplemented with our interface.
  • Yuta Sugiura, Daisuke Sakamoto, Anusha Withana, Masahiko Inami, Takeo Igarashi
    CHI2010: PROCEEDINGS OF THE 28TH ANNUAL CHI CONFERENCE ON HUMAN FACTORS IN COMPUTING SYSTEMS, VOLS 1-4 2427 - + 2010年 [査読有り][通常論文]
     
    We propose a cooking system that operates in an open environment. The system cooks a meal by pouring various ingredients into a boiling pot on an induction heating cooker and adjusts the heating strength according to the user's instructions. We then describe how the system incorporates robotic- and human-specific elements in a shared workspace so as to achieve a cooperative rudimentary cooking capability. First, we use small mobile robots instead of built-in arms to save space, improve flexibility and increase safety. Second, we use detachable visual markers to allow the user to easily configure the real-world environment. Third, we provide a graphical user interface to display detailed cooking instructions to the user. We hope insights obtained in this experiment will be useful for the design of other household systems in the future.
  • Sakamoto Daisuke, Takumi Shirokura, Yuta Sugiura, Tetsuo Ono, Masahiko Inami, Takeo Igarashi
    PROCEEDINGS OF THE 7TH INTERNATIONAL CONFERENCE ON ADVANCES IN COMPUTER ENTERTAINMENT TECHNOLOGY (ACE 2010) 53 - 56 2010年 [査読有り][通常論文]
     
    We developed a RoboJockey (Robot Jockey) interface for coordinating robot actions, such as dancing, similar to a "disc jockey" or "video jockey" who selects and plays recorded music or video for an audience, in this case, robot's actions, and giving people a new entertainment experience with robots. The system enables a user to choreograph a robot to dance using a simple visual language. Every icon on the interface is circular and can be operated from all positions around the tabletop interface. Users can coordinate the mobile robot's actions with a combination of back, forward, and rotating movements, and the humanoid robot's actions with a combination of arm and leg movements. Every action is automatically performed to background music. We demonstrated RoboJockey at a Japanese domestic symposium, and confirmed that people enjoyed using the system and successfully created entertaining robot dances.
  • Cooky: 調理順序指示インタフェースと料理ロボットの開発
    杉浦 裕太, 坂本 大介, Withana Anusha, 稲見 昌彦, 五十嵐 健夫
    第17回インタラクティブシステムとソフトウェアに関するワークショップ (WISS2009) 2009年12月 [査読有り][通常論文]
  • 塩見 昌裕, 坂本 大介, 神田 崇行, 石井 カルロス 寿憲, 石黒 浩, 萩田 紀博
    電子情報通信学会論文誌. A, 基礎・境界 92 11 773 - 783 一般社団法人電子情報通信学会 2009年11月 [査読有り][通常論文]
     
    本論文は,我々が開発した半自律型コミュニケーションロボットシステムについて記述する.我々は,オペレータの負荷を減らしつつ,効率の良い半自律動作を実現するために,オペレータコールアルゴリズムを開発した.本アルゴリズムは,自律的にロボットが単体で解決できない状況を検出し,オペレータへのコールを行う.コールされたオペレータは必要に応じてロボットの遠隔操作を行い,その状況への対処を行う.つまり,ロボットは基本的に自律的に動作して人々との相互作用を行い,問題が発生した場合にのみオペレータをコールして半自律動作を行う.開発したロボットシステムの有用性を検証するため,駅構内で道案内を行う半自律型コミュニケーションロボットを用いた実証実験を行った.実験の結果,半自律で動作したロボットは68.1%の割合で道案内を正しく行い,完全自律で動作したロボットは29.9%の割合で道案内を正しく行った.このとき,オペレータは実験時間中25%のみ,ロボットの一部遠隔操作を行った.これらの結果から,1人のオペレータが複数のロボットを同時に操作することが実現可能であることが示唆された.
  • 塩見昌裕, 坂本大介, 坂本大介, 神田崇行, 石井カルロス寿憲, 石黒浩, 石黒浩, 萩田紀博
    電子情報通信学会論文誌 A J92-A 11 773 - 783 一般社団法人電子情報通信学会 2009年11月 [査読有り][通常論文]
     
    本論文は,我々が開発した半自律型コミュニケーションロボットシステムについて記述する.我々は,オペレータの負荷を減らしつつ,効率の良い半自律動作を実現するために,オペレータコールアルゴリズムを開発した.本アルゴリズムは,自律的にロボットが単体で解決できない状況を検出し,オペレータへのコールを行う.コールされたオペレータは必要に応じてロボットの遠隔操作を行い,その状況への対処を行う.つまり,ロボットは基本的に自律的に動作して人々との相互作用を行い,問題が発生した場合にのみオペレータをコールして半自律動作を行う.開発したロボットシステムの有用性を検証するため,駅構内で道案内を行う半自律型コミュニケーションロボットを用いた実証実験を行った.実験の結果,半自律で動作したロボットは68.1%の割合で道案内を正しく行い,完全自律で動作したロボットは29.9%の割合で道案内を正しく行った.このとき,オペレータは実験時間中25%のみ,ロボットの一部遠隔操作を行った.これらの結果から,1人のオペレータが複数のロボットを同時に操作することが実現可能であることが示唆された.
  • Thomas Seifried, Michael Haller, Stacey D. Scott, Florian Perteneder, Christian Rendl, Daisuke Sakamoto, Masahiko Inami
    ACM International Conference on Interactive Tabletops and Surfaces, ITS 2009, Banff / Calgary, Alberta, Canada, November 23-25, 2009 33 - 40 ACM 2009年11月 [査読有り][通常論文]
  • Daisuke Sakamoto, Kotaro Hayashi, Takayuki Kanda, Masahiro Shiomi, Satoshi Koizumi, Hiroshi Ishiguro, Tsukasa Ogasawara, Norihiro Hagita
    International Journal of Social Robotics 1 2 157 - 169 2009年04月 [査読有り][通常論文]
     
    This paper reports a method that uses humanoid robots as a communication medium. Even though many interactive robots are being developed, their interactivity remains much poorer than that of humans due to their limited perception abilities. In our approach, the role of interactive robots is limited to a broadcasting medium for exploring the best way to attract people's interest to information provided by robots. We propose using robots as a passive social medium, in which they behave as if they are talking together. We conducted an eight-day field experiment at a train station to investigate the effects of such a passive social medium. © Springer Science & Business Media BV 2009.
  • 複数台ロボットのマルチタッチディスプレイによる操作インタフェース
    加藤 淳, 坂本 大介, 稲見 昌彦, 五十嵐 健夫
    インタラクション2009 インタラクティブ発表 2009年03月 [査読有り][通常論文]
  • Thomas Seifried, Christian Rendl, Florian Perteneder, Jakob Leitner, Michael Haller, Daisuke Sakamoto, Jun Kato, Masahiko Inami, Stacey D. Scott
    ACM SIGGRAPH 2009 Emerging Technologies, SIGGRAPH '09 2009年 
    The amount of digital appliances and media found in domestic environments has risen drastically over the last decade, for example, digital TVs, DVD and Blu-ray players, digital picture frames, digital gaming systems, electronically moveable window blinds, and robotic vacuum cleaners. As these devices become more compatible to Internet and wireless networking (e.g. Internet-ready TVs, streaming digital picture frames, and WiFi gaming systems, such as Nintendo's Wii and Sony's Playstation) and as networking and WiFi home infrastructures become more prevalent, new opportunities arise for developing centralized control of these myriad devices and media into so called "Universal remote controls". However, many remote controls lack intuitive interfaces for mapping control functions to the device intended being controlled. This often results in trial and error button pressing, or experimentation with graphical user interface (GUI) controls, before a user achieves their intended action.
  • Daisuke Sakamoto, Hiroshi Ishiguro
    Kansei Engineering International, Japan Society of Kansei Engineering 2009年01月 [査読有り][通常論文]
  • Kohei Ogawa, Christoph Bartneck, Daisuke Sakamoto, Takayuki Kanda, Tetsuo Ono, Hiroshi Ishiguro
    RO-MAN 2009: THE 18TH IEEE INTERNATIONAL SYMPOSIUM ON ROBOT AND HUMAN INTERACTIVE COMMUNICATION, VOLS 1 AND 2 9 - + 2009年 [査読有り][通常論文]
     
    The first robotic copies of real humans have become available. They enable their users to be physically present in multiple locations at the same time. This study investigates what influence the embodiment of an agent has on its persuasiveness and its perceived personality. Is a robotic copy as persuasive as its human counterpart? Does it have the same personality? We performed an experiment in which the embodiment of the agent was the independent variable and the persuasiveness and perceived personality were the dependent measurement. The persuasive agent advertised a Bluetooth headset. The results show that an android is found to be as persuasive as a real human or a video recording of a real human. The personality of the participant had a considerable influence on the measurements. Participants that were more open to new experiences rated the persuasive agent lower on agreeableness and extroversion. They were also more willing to spend money on the advertised product.
  • Jun Kato, Daisuke Sakamoto, Masahiko Inami, Takeo Igarashi
    Conference on Human Factors in Computing Systems - Proceedings 3443 - 3448 2009年 [査読有り][通常論文]
     
    We must give some form of a command to robots in order to have the robots do a complex task. An initial instruction is required even if they do their tasks autonomously. We therefore need interfaces for the operation and teaching of robots. Natural languages, joysticks, and other pointing devices are currently used for this purpose. These interfaces, however, have difficulty in operating multiple robots simultaneously. We developed a multi-touch interface with a top-down view from a ceiling camera for controlling multiple mobile robots. The user specifies a vector field followed by all robots on the view. This paper describes the user interface and its implementation, and future work of the project.
  • Daisuke Sakamoto, Koichiro Honda, Masahiko Inami, Takeo Igarashi
    CHI2009: PROCEEDINGS OF THE 27TH ANNUAL CHI CONFERENCE ON HUMAN FACTORS IN COMPUTING SYSTEMS, VOLS 1-4 197 - 200 2009年 [査読有り][通常論文]
     
    Numerous robots have been developed, and some of them are already being used in homes, institutions, and workplaces. Despite the, development of useful robot functions, the focus so far has not been on user interfaces of robots. General users of robots find it hard to understand what the robots are doing and what kind of work they can do. This paper presents an interface for the commanding home robots by using stroke gestures on a computer screen. This interface allows the user to control robots and design their behaviors by sketching the robot's behaviors and actions on a top-down view from ceiling cameras. To convey a feeling of directly controlling the robots, our interface employs the live camera view. In this study, we focused on a house-cleaning task that is typical of home robots, and developed a sketch interface for designing behaviors of vacuuming robots.
  • Masahiro Shiomi, Daisuke Sakamoto, Takayuki Kanda, Carlos Toshinori Ishi, Hiroshi Ishiguro, Norihiro Hagita
    HRI 2008 - Proceedings of the 3rd ACM/IEEE International Conference on Human-Robot Interaction: Living with Robots 303 - 310 2008年 [査読有り][通常論文]
     
    This paper reports an initial field trial with a prototype of a semiautonomous communication robot at a train station. We developed an operator-requesting mechanism to achieve semiautonomous operation for a communication robot functioning in real environments. The operator-requesting mechanism autonomously detects situations that the robot cannot handle by itself a human operator helps by assuming control of the robot. This approach gives semi-autonomous robots the ability to function naturally with minimum human effort. Our system consists of a humanoid robot and ubiquitous sensors. The robot has such basic communicative behaviors as greeting and route guidance. The experimental results revealed that the operator-requesting mechanism correctly requested operator's help in 85% of the necessary situations the operator only had to control 25% of the experiment time in the semi-autonomous mode with a robot system that successfully guided 68% of the passengers. At the same time, this trial provided the opportunity to gather user data for the further development of natural behaviors for such robots operating in real environments. Copyright 2008 ACM.
  • 坂本 大介, 神田 崇行, 小野 哲雄, 石黒 浩, 萩田 紀博
    情報処理学会論文誌 48 12 3729 - 3738 一般社団法人情報処理学会 2007年12月15日 [査読無し][通常論文]
     
    本研究では人間の存在感を伝達するために遠隔操作型アンドロイド・ロボットシステムを開発した.本システムでは非常に人に近い外見を持つアンドロイド・ロボットであるGeminoid HI-1 を使用する.本システムを使用した実験の結果Geminoid HI-1 を通して伝わる人間の存在感はビデオ会議システムを使用した場合の人間の存在感を上回ったことが確認された.さらに,被験者はビデオ会議システムと同程度に本システムにおいて人間らしく自然な会話ができたことが確認された.本稿ではこれらのシステムと実験について述べたあと,遠隔操作型アンドロイド・ロボットシステムによる遠隔存在感の実現についての議論を行う.In this research, we realize human telepresence by developing a remote-controlled android system called Geminoid HI-1. Experimental results confirmed that participants felt stronger presence of the operator when he talked through the android than when he appeared on a video monitor in a video conference system. In addition, participants talked with the robot naturally and evaluated its human-likeness as equal to a man on a video monitor. At this paper's conclusion, we will discuss a remote-control system for telepresence that uses a human-like android robot as a new telecommunication medium.
  • 坂本大介, 坂本大介, 神田崇行, 小野哲雄, 小野哲雄, 石黒浩, 石黒浩, 萩田紀博
    情報処理学会論文誌 48 12 3729 - 3738 ACM 2007年12月 [査読有り][通常論文]
  • Kotaro Hayashi, Daisuke Sakamoto, Takayuki Kanda, Masahiro Shiomi, Satoshi Koizumi, Hiroshi Ishiguro, Tsukasa Ogasawara, Norihiro Hagita
    HRI 2007 - Proceedings of the 2007 ACM/IEEE Conference on Human-Robot Interaction - Robot as Team Member 137 - 144 2007年 [査読有り][通常論文]
     
    This paper reports a method that uses humanoid robots as a communication medium. There are many interactive robots under development, but due to their limited perception, their interactivity is still far poorer than that of humans. Our approach in this paper is to limit robots' purpose to a non-interactive medium and to look for a way to attract people's interest in the information that robots convey. We propose using robots as a passive-social medium, in which multiple robots converse with each other. We conducted a field experiment at a train station for eight days to investigate the effects of a passive-social medium. Copyright 2007 ACM.
  • Takayuki Kanda, Masayuki Kamasima, Michita Imai, Tetsuo Ono, Daisuke Sakamoto, Hiroshi Ishiguro, Yuichiro Anzai
    AUTONOMOUS ROBOTS 22 1 87 - 100 2007年01月 [査読有り][通常論文]
     
    This paper reports the findings for a humanoid robot that expresses its listening attitude and understanding to humans by effectively using its body properties in a route guidance situation. A human teaches a route to the robot, and the developed robot behaves similar to a human listener by utilizing both temporal and spatial cooperative behaviors to demonstrate that it is indeed listening to its human counterpart. The robot's software consists of many communicative units and rules for selecting appropriate communicative units. A communicative unit realizes a particular cooperative behavior such as eye-contact and nodding, found through previous research in HRI. The rules for selecting communicative units were retrieved through our preliminary experiments with a WOZ method. An experiment was conducted to verify the effectiveness of the robot, with the results revealing that a robot displaying cooperative behavior received the highest subjective evaluation, which is rather similar to a human listener. A detailed analysis showed that this evaluation was mainly due to body movements as well as utterances. On the other hand, subjects' utterance to the robot was encouraged by the robot's utterances but not by its body movements.
  • 坂本大介, 小野哲雄
    ヒューマンインタフェース学会論文誌 8 3 381 - 390 2006年08月 [査読有り][通常論文]
  • 小松孝徳, 鈴木昭二, 鈴木恵二, 松原仁, 小野哲雄, 坂本大介, 佐藤崇正, 内本友洋, 岡田孟, 北野勇, 棟方渚, 佐藤智則, 高橋和之, 本間正人, 長田純一, 畑雅之, 乾英雄
    日本バーチャルリアリティ学会論文誌 11 2 213 - 223 特定非営利活動法人 日本バーチャルリアリティ学会 2006年06月 [査読有り][通常論文]
     
    Our project aims to develop robot authoring system especially for non-robotic researchers, such as cognitive psychologists, social psychologists, designers and art performers, to provide an intuitive robot operating environment, which enable them do authoring the robot as they want. Concretely, we have been developing the robot system which has the following characteristics. 1) Changing the robot's appearances and functions by attaching or removing Sub Modules, e.g., arms, tails, ears, wings, on/from Core Module. When this Sub Module was attached on Core Module (robot's base body), the particular information embed in Sub Modules is sent to the robot controller and this controller change the robot's behaviors according to the received information. 2) Authoring (editing or turning-up) the robot's behaviors with using intuitive command system not like a traditional program language (e.g., move (10.0, 0.0)), but similar to our natural language (e.g., "move," "run").
  • 坂本大介, 小野哲雄
    コンピュータソフトウェア 23 2 101 - 107 2006年04月 [査読有り][通常論文]
  • Daisuke Sakamoto, Tetsuo Ono
    Proceedings of the 1st ACM SIGCHI/SIGART Conference on Human-Robot Interaction, HRI 2006, Salt Lake City, Utah, USA, March 2-3, 2006 355 - 356 ACM 2006年03月 [査読有り][通常論文]
  • Daisuke Sakamoto, Takayuki Kanda, Tetsuo Ono, Masayuki Kamashima, Michita Imai, Hiroshi Ishiguro
    Int. J. Hum.-Comput. Stud. 62 2 247 - 265 2005年12月 [査読有り][通常論文]
  • 神田崇行, 鎌島正幸, 鎌島正幸, 今井倫太, 今井倫太, 小野哲雄, 小野哲雄, 坂本大介, 坂本大介, 石黒浩, 石黒浩, 安西祐一郎
    日本ロボット学会誌 23 7 898 - 909 The Robotics Society of Japan 2005年10月 [査読有り][通常論文]
     
    This paper reports the findings of a humanoid robot that pretends to listen to humans by effectively using its body properties in a route guidance situation. A human teaches a route to the robot, and the developed robot behaves as a human-like listener by utilizing both temporal and spatial cooperative behaviors to demonstrate that it is indeed listening to its human counterpart. The robot consists of many communicative units and rules for selecting appropriate units. A communicative unit realizes a particular cooperative behavior such as eye-contact and nodding, found through previous research. The rules for selecting communicative units were retrieved through WOZ experiments. An experiment was conducted to verify the effectiveness of the developed robot, and, as a result, the robot with cooperative behavior received higher subjective evaluation, which is rather similar to a human listener. The detailed analysis showed that this higher evaluation was due mainly to body movements as well as utterances. On the other hand, subjects' utterance to the robot was promoted by the robot's utterances but not by the body movements.
  • Masayuki Kamashima, Takayuki Kanda, Michita Imai, Tetsuo Ono, Daisuke Sakamoto, Hiroshi Ishiguro, Yuichiro Anzai
    2004 IEEE/RSJ International Conference on Intelligent Robots and Systems, Sendai, Japan, September 28 - October 2, 2004 2506 - 2513 IEEE 2004年09月 [査読有り][通常論文]
  • D Sakamoto, T Kanda, T Ono, M Kamashima, M Imai, H Ishiguro
    RO-MAN 2004: 13TH IEEE INTERNATIONAL WORKSHOP ON ROBOT AND HUMAN INTERACTIVE COMMUNICATION, PROCEEDINGS 443 - 448 2004年 [査読有り][通常論文]
     
    Research on humanoid robots has produced various uses for their body properties in communication. In particular, mutual relationships of body movements between a robot and a human are considered to be important for smooth and natural communication, as they are in human-human communication. We have developed a semi-autonomous humanoid robot system that is capable of cooperative body movements with humans using environment-based sensors and switching communicative units. And we conducted an experiment using this robot system and verified the importance of cooperative behaviors in a route-guidance situation where a human gives directions to the robot. This result indicates that the cooperative body movements greatly enhance the emotional impressions of human in a route-guidance situation. We believe these results will allow us to develop interactive humanoid robots that sociably communicate with humans.

MISC

  • 坂本 大介, 吉田 成朗 コンピュータソフトウェア = Computer software / 日本ソフトウェア科学会 編 37 (3) 25 -30 2020年08月
  • 木ノ原中也, 巻口誉宗, 高田英明, 高田英明, 坂本大介, 小野哲雄 日本ソフトウェア科学会研究会資料シリーズ(Web) (91) 2020年
  • Daisuke Sakamoto, Takayuki Kanda, Tetsuo Ono, Hiroshi Ishiguro, Norihiro Hagita Geminoid Studies: Science and Technologies for Humanlike Teleoperated Androids 39 -56 2018年04月 [査読無し][通常論文]
     
    © Springer Nature Singapore Pte Ltd. 2018. In this study, we realize human telepresence by developing a remote-controlled android system called Geminoid HI-1. Experimental results confirm that participants feel a stronger presence of the operator when he talks through the android than when he appears on a video monitor in a video conference system. In addition, participants talk with the robot naturally and evaluate its humanlike-ness as equal to a man on a video monitor. We also discuss a remote-controlled system for telepresence that uses a humanlike android robot as a new telecommunication medium.
  • Kohei Ogawa, Christoph Bartneck, Daisuke Sakamoto, Takayuki Kanda, Tetsuo Ono, Hiroshi Ishiguro Geminoid Studies: Science and Technologies for Humanlike Teleoperated Androids 235 -247 2018年04月 [査読無し][通常論文]
     
    © Springer Nature Singapore Pte Ltd. 2018. The first robotic copies of real humans have become available. They enable their users to be physically present in multiple locations simultaneously. This study investigates the influence that the embodiment of an agent has on its persuasiveness and its perceived personality. Is a robotic copy as persuasive as its human counterpart? Does it have the same personality? We performed an experiment in which the embodiment of the agent was the independent variable and the persuasiveness and perceived personality were the dependent measurements. The persuasive agent advertised a Bluetooth headset. The results show that an android is perceived as being as persuasive as a real human or a video recording of a real human. The personality of the participant had a considerable influence on the measurements. Participants who were more open to new experiences rated the persuasive agent lower on agreeableness and extroversion. They were also more willing to spend money on the advertised product.
  • Saki Sakaguchi, Eunice Ratna Sari, Taku Hachisu, Adi B. Tedjasaputra, Kunihiro Kato, Masitah Ghazali, Kaori Ikematsu, Ellen Yi-Luen Do, Jun Kato, Array,Jun Nishida, Daisuke Sakamoto, Yoshifumi Kitamura, Jinwoo Kim, Anirudha Joshi, Zhengjie Liu Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems, CHI 2018, Montreal, QC, Canada, April 21-26, 2018 2018年 [査読有り][通常論文]
  • 坂本大介 OHM 104 (2) 19‐20 2017年02月05日 [査読無し][通常論文]
  • Kohei Matsumura, Masa Ogata, Saki Sakaguchi, Takashi Ijiri, Takeshi Nishida, Jun Kato, Hiromi Nakamura, Daisuke Sakamoto, Yoshifumi Kitamura Conference on Human Factors in Computing Systems - Proceedings 07-12- 3325 -3330 2016年05月07日 [査読有り][通常論文]
     
    This symposium showcases the latest work from Japan on interactive systems and user interfaces that address under-explored problems and demonstrate unique approaches. In addition to circulating ideas and sharing a vision of future research in human-computer interaction, this symposium aims to foster social networks among young researchers and students and create a fresh research community.
  • Jun Kato, Hiromi Nakamura, Yuta Sugiura, Taku Hachisu, Daisuke Sakamoto, Koji Yatani, Yoshifumi Kitamura Conference on Human Factors in Computing Systems - Proceedings 18 2321 -2324 2015年04月18日 [査読有り][通常論文]
     
    This symposium showcases the latest work from Japan on interactive systems and user interfaces that address under-explored problems and demonstrate unique approaches. In addition to circulating ideas and sharing a vision of future research in human-computer interaction, this symposium aims to foster social networks among young researchers and students and create a fresh research community. Copyright is held by the author/owner(s).
  • Daisuke Sakamoto Interactions 22 (1) 52 -55 2015年01月01日 [査読有り][通常論文]
     
    Christoph Bartneck's 2009 scientometric analysis of CHI conference proceedings revealed the number of Asian scientists participating in the event was small as compared with other countries. Bartneck's analysis was more broadly focused on both quantity and quality, including numbers of citations and best paper awards. The analysis focused on the quantitative analysis, including geography, organization, and author statistics due to limited space and resources. Experts employed Christoph Bartneck's idea of credit for the analysis in which one paper equaled one credit to conduct their respective investigations.
  • 坂本 大介 ヒューマンインタフェース学会誌 = Human interface = Journal of Human Interface Society 15 (4) 289 -294 2013年 [査読無し][通常論文]
  • 石井 志保子, 坂本 大介, 髙木 英典, 森 俊哉, 竹澤 悠典, 田嶋 文生 東京大学理学系研究科・理学部ニュース 44 (3) 15 -17 2012年09月 
    「特異点」/「クラウドソーシング」/「相関エレクトロニクス」/「火山ガス」/「人工DNA」/「Tajima's D」
  • Michael Haller, Thomas Seifried, Stacey D. Scott, Florian Perteneder, Christian Rendl, Daisuke Sakamoto, Masahiko Inami, Pranav Mistry, Pattie Maes, Seth E. Hunter, David Merrill,Jeevan J. Kalanithi, Susanne Seitinger, Daniel M. Taub, Alex S. Taylor Interactions 18 (3) 8 -9 2011年 [査読有り][通常論文]
  • 近藤誠, 杉浦裕太, 筧豪太, 坂本大介, 稲見昌彦 ヒューマンインタフェース学会誌 12 (3) 175 -182 2010年08月25日 [査読無し][通常論文]
  • 坂本 大介 日本バーチャルリアリティ学会誌 = Journal of the Virtual Reality Society of Japan 15 (1) 44 -45 2010年03月31日 [査読無し][通常論文]
  • 坂本 大介 情報処理 50 (7) 672 -672 2009年07月15日 [査読無し][通常論文]
  • 塩見昌裕, 塩見昌裕, 坂本大介, 坂本大介, 神田崇行, 石井カルロス寿憲, 石黒浩, 石黒浩, 萩田紀博 画像ラボ 18 (4) 23 -27 2007年04月01日 [査読無し][通常論文]
  • 坂本 大介 日本バーチャルリアリティ学会誌 = Journal of the Virtual Reality Society of Japan 10 (2) 104 -104 2005年06月25日
  • 鈴木昭二, 鈴木恵二, 松原仁, 小野哲雄, 小松孝徳, 内本友洋, 岡田孟, 北野勇, 坂本大介, 佐藤崇正, 本間正人, 畑雅之, 乾英男 日本機械学会ロボティクス・メカトロニクス講演会講演論文集(CD-ROM) 2005 2005年

講演・口頭発表等

  • 岩井望、崔明根、坂本大介、小野哲雄.
    情報処理学会シンポジウム「インタラクション2024」 2024年03月 口頭発表(一般) 情報処理学会
     
    拡張現実感(Augmented Reality; AR)におけるインタラクションを実現するインタフェースとしてハンドジェスチャやウェアラブルデバイスなどによる入力手法が研究されてきている.ARは身体を活用したインタラクションが必要となる点において,速度と精度だけでなく社会的受容性にも配慮されたインタフェースが求められている.本研究では小型かつ身体に装着できるデバイスとして小型の中指装着型トラックボールに注目する.身体装着型トラックボールはx,yの2軸だけでなく,回転操作のような3次元的な操作も可能であるためARでの利用に適しているのではないかと考えた.本稿では身体装着型トラックボールを使用することの有用性と実用性について調査するため,身体装着型トラックボールを含む3種類の入力手法の比較実験を行った.その結果,身体装着型トラックボールは既存手法に対し補完的な入力を提供し,球を転がす触覚フィードバックやユーザの指の大きさに依存しないデバイスの特性がARでのインタラクションにおいて有用な操作方法である可能性が示唆された.
  • 崔明根、坂本大介、小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2024年03月 口頭発表(一般) 情報処理学会
     
    Mixed Reality(MR)環境で表示される MR オブジェクトに対して,人はまるで現実のオブジェクトに対するような振る舞いを行う.本稿では,MR オブジェクトに対する衝突回避行動を活用することでユーザをより良い方向へ誘導するナッジ手法 MR Nudge を提案する.本手法では身体移動を行わせたくない位置に MR オブジェクトを配置することで,MR オブジェクトとの干渉を回避させる行動へ誘導を行う.本研究では MR Nudge を用いることで誘導が可能か,また MR Nudge の誘導に強制性が無いか調査する実験を行った.実験の結果,MR Nudge を用いることで 54% の実験参加者を誘導することが可能であり,かつ強制性が無いことが明らかになった.
  • 田邊早也佳,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2024年01月 口頭発表(一般) 情報処理学会
     
    本研究では人が「犬派」か「猫派」の判断を下すときに,動物の外見や動作といったどのような属性を重視しているのか検証した.多くの人はペットに対する好みに基づいて,自分を「犬派」か「猫派」のどちらかであると認識し,先行研究ではこれらのタイプの間には性格の違いがあるということが判明している.本研究では,特に社会的支配志向の特性が高い人は犬のような従順なペットを好む傾向があり,人は自分の性格を補完してくれるペットを好むという研究に注目し,実験・考察を行う.実験では予備実験として犬型ロボット「aibo」と猫型ロボット「Marscat」に実装した動作がそれぞれどのような動物の動作であると感じるか,クラウドソーシングを用いて調査を行った.これをもとに本実験では回答者の社会的支配志向のスコアと動物型ロボットへの評価スコアを比較し,その結果を考察した.
  • 崔明根,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2023年05月 口頭発表(一般) 情報処理学会
     
    ユーザの両目の視線方向を用いて,ユーザの注視点の深度(視線深度)を推定する手法が存在する.視線深度が明らかである場合ユーザの三次元注視点が分かるため,視線深度を用いることで二次元環境では設計できないような視線インタフェースデザインが可能となる.しかし視線深度の推定精度は低く,さらに目標物がない場合は特定の深度に視線を固定することが難しいため,視線深度を活用した精度の高いインタラクションを実現することは困難である.我々はユーザの視線位置を示すポインタである視線カーソルをインタラクション領域の前方に固定し,注視目標とすることで特定の視線深度への注視を容易に行う手法を提案する.本稿では提案手法のパラメータ調査を目的とした視線カーソル選択タスクに関する実験を行った.実験の結果から,視線カーソルを配置すべき深度や深度バッファ,適切な滞留時間が明らかになった.
  • 崔明根,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2023年05月 口頭発表(一般) 情報処理学会
     
    三次元 VR 環境ではターゲットが他のオブジェクトに部分的に遮蔽され可視領域が狭まり,視線入力によるターゲット選択が困難となる場合がある.我々は視線と頭部方向の成す角度(視線角度)25°-45°の領域(Kuiper Belt)を活用した VR 環境における遮蔽された小さなオブジェクトの選択手法を提案する.本手法では選択候補の決定と,選択候補に対応したメニューアイテムの選択によってターゲットを選択する.メニューアイテムは Kuiper Belt に配置されており,選択候補が決定される領域(視線角度 25°以下の領域)とメニューアイテム選択領域が明確に分離されているため,Midas Touch が生じずに視線のみで選択を完了することが可能である.提案手法のユーザビリティ調査を目的として,最大 256 個のオブジェクトが密集した環境において部分的にターゲットが他のオブジェクトに隠れた状態で選択タスクを行った.実験の結果,オブジェクトが密集し,ターゲットが部分的に隠れた状態においても,提案手法は通常の視線入力手法よりも小さなオブジェクトの選択が容易であることが確認された.
  • Gino .Aiki: 合気道の身体の使い方の習得を支援するMRソフトウェア
    鈴木湧登,坂本大介,小野哲雄
    第30回インタラクティブシステムとソフトウェアに関するワークショップ(WISS 2022) 2022年12月 口頭発表(一般) 日本ソフトウェア科学会
  • スマートフォン背面のジェスチャ入力を実現するスマホリング型デバイスの設計と実装
    日下部完,坂本大介,小野哲雄
    第30回インタラクティブシステムとソフトウェアに関するワークショップ(WISS 2022) 2022年12月 口頭発表(一般) 日本ソフトウェア科学会
  • 若杉直生,崔明根,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2022年11月 口頭発表(一般) 情報処理学会
     
    日常生活において周囲が低照度である環境は多く存在し,更には災害時などでしばし十分な光源が得られないことがある.このような環境では視覚的認知機能が低下するため,作業効率の低下や障害物衝突などの事故が発生し得る.本研究では低照度環境におけるタスク支援を目的として,MR 向けの低照度環境に対する深度情報提示手法を提案する.現在流通している MR デバイスは低照度での動作を想定していないため,VR を用いた仮想空間で低照度環境の再現を行い,提案手法が低照度における探索作業の効率を改善できるか調査した.
  • 小柳元志郎,崔明根,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2022年11月 口頭発表(一般) 情報処理学会
     
    Virtual Reality(VR)においてレイは広く活用されており,拡張性に優れた手法である.一方で,ハンドヘルド Augmented Reality(AR)においては,VR と同様の操作性を有したレイを実装することは難しい.これは,眼前にハンドヘルドデバイスを掲げる必要があるために,ハンドヘルドデバイスを一定以上回転させることが出来ず,VR コントローラーが持つ回転の 3 自由度を AR 操作時に表現することが難しいためである.ゆえに本研究では,バーチャルジョイスティックを用いてレイの回転に関する自由度を補完する手法と,ハンドヘルド AR における他のオブジェクト選択手法を比較し,ユーザビリティ調査を行った.
  • 青木美春,崔明根,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2022年11月 口頭発表(一般) 情報処理学会
     
    社会生活へバーチャルエージェントが活用されたシステムが浸透してきている.バーチャルエージェントを用いたシステムの活用にはユーザの信頼が必要不可欠であるが,近年の研究により,人々はアルゴリズムの性能が人間を上回ることを認知していても,アルゴリズム自体への忌避感によって,アルゴリズムを信頼しにくい「アルゴリズム嫌悪」という現象があることが明らかになってきた.しかし,この「アルゴリズム嫌悪」とバーチャルエージェントの外見・音声の間の関連性については明らかになっている部分が少ない.本論文では,人間に情報を提供するバーチャルエージェントの外観や音声を変化させることにより,「アルゴリズム嫌悪」に影響を及ぼす信頼感がどのように変化するかを,実験を通して検討する.
  • 後藤健斗,水丸和樹,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2022年11月 口頭発表(一般) 情報処理学会
     
    “天使と悪魔” は道徳的ジレンマを表現する方法として用いられる.本研究では,天使と悪魔の関係をロボットで再現し,ジレンマ状況の中で人間の自制心,意思決定や行動がどのように変化するかを調査する.ロボットの条件を Neutral,Angel,Devil とし,実験参加者を Neutral-Neutral 群と Angel-Devil 群に分け,紙にアルファベットを書き続けるというタスクを行ってもらうことで,タスクの継続時間から 2 つの群の自制心を比較した.その結果,Angel-Devil 群のほうが有意にタスクの継続時間が長くなった.また,Godspeed によるロボットの印象評価を行ったところ,擬人化や好ましさの項目においてロボットの条件間で有意差が確認された.実験後アンケートでは,ロボットが Angel と Devil の役割を果たすことができたと考えられる回答がみられた.
  • 小柳元志郎,崔明根,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2022年03月 口頭発表(一般) 情報処理学会
     
    スマートフォンにおける操作方法として,搭載されたジャイロセンサを利用した 3 自由度の傾け操作がある.端末の傾きを利用した操作に関する研究(例えば,チルト操作など)は行われているが,操作方法,操作感度などのパラメータ設定の検討は十分ではない.そこで本研究では,スマートフォンの画面上に表示されたスライダーを操作するタスクを用いて,端末の傾きをスライダーの変化量に対応させる手法(Position 手法)と傾きを変化率に対応させる手法(Rate 手法)について,パラメータ設定の比較,検討を行った.本研究ではスマートフォンを横向きに持ち,端末の画面に対して垂直な方向を軸とした回転(Yaw 回転)を傾きとして利用した.Yaw 回転を利用することで画面は常に利用者の方を向く.スマートフォンを左右に傾けてスライダーを指定された位置に移動させ,その操作完了時間と精度,ユーザビリティで評価を行った.その結果,操作完了時間と精度において,左右に最大 30 度傾けることのできる操作感度の Position 手法が優れている傾向が見られたものの有意差は確認されなかった.
  • 日下部完,崔明根,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2022年03月 口頭発表(一般) 情報処理学会
     
    従来のハンドジェスチャによる入力手法の研究では,操作コマンドの入力のようなバイナリ入力のみに焦点が置かれ,連続的な値を扱う場合の検討が行われてきていない.そこで,本稿では RGB カメラからの映像を入力とした,連続値を扱うインターフェースのハンドジェスチャによる操作手法の検討を行う.ハンドジェスチャは 4 種類用意し,1 自由度の数値の操作タスクによって,各ジェスチャのスケール,入力方向,入力回数を変化による性能を評価する 2 つの評価実験を行った.結果として,比較を行ったハンドジェスチャの中では,手を水平に移動するハンドジェスチャが最もユーザビリティが優れていた.また,ジェスチャ入力時間とエラーにはトレードオフの関係が確認された.
  • 髙松大悟,崔明根,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2022年03月 口頭発表(一般) 情報処理学会
     
    Virtual Reality(VR)においてレイは広く活用されており,拡張性に優れた手法である.一方で,ハンドヘルド Augmented Reality(AR)においては,VR と同様の操作性を有したレイを実装することは難しい.これは,眼前にハンドヘルドデバイスを掲げる必要があるために,ハンドヘルドデバイスを一定以上回転させることが出来ず,VR コントローラが持つ回転の 3 自由度を AR 操作時に表現することが難しいためである.ゆえに本研究では,バーチャルジョイスティックを用いてレイの回転に関する自由度を補完する手法を提案する.本研究では,提案手法のおけるパラメータである,Control Display 比(CD 比)の適切な値の調査を目的とした実験を行った.その結果,適切な CD 比が 3 であることが明らかになった.
  • ストリームライブチャット入力を想定した半透明ダブルフリックキーボードの入力性能の実験的検証
    阿部 優樹, 崔 明根, 坂本 大介, 小野 哲雄
    情報処理学会シンポジウム「インタラクション2022」 2022年03月 口頭発表(一般) 情報処理学会
  • Kuiper Belt: バーチャルリアリティにおける極端な視線角度を用いた視線入力手法の検討
    崔 明根, 坂本 大介, 小野 哲雄
    情報処理学会シンポジウム「インタラクション2022」 2022年02月 口頭発表(一般) 情報処理学会
  • 崔明根,坂本大介,小野哲雄
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2019年12月 口頭発表(一般) 情報処理学会
     
    本論文では,密集した小さなターゲットに対して高速にターゲット選択を行うことができるよう拡張した手法であるバブルレンズ法を,視線操作インタフェースに拡張した手法Bubble Gaze Lensを提案する.本手法は,サッケードが弾道的な運動と修正的な運動によって構成されていることを利用して,ターゲット付近でレンズを拡大し,視線入力インタフェースにおける小さなターゲットの選択を容易にする.本稿では,既存手法であるBubble Gaze Cursorと提案手法Bubble Gaze Lensに対してポインティングタスクを行った.その結果,提案手法は既存手法と比較して高速に動作し,エラー率を54.0%削減した.さらに,ユーザビリティやメンタルワークロードにおいても提案手法の方が既存手法よりも有意に優れていた.
  • 桂 大地, 坂本 大介, 小野 哲雄
    エンタテインメントコンピューティングシンポジウム2019論文集 2019年09月
  • 巻口誉宗,高田英明,本田健悟,坂本大介,小野哲雄
    マルチメディア,分散協調とモバイルシンポジウム2019論文集 2019年06月 口頭発表(一般) 情報処理学会
     
    被写体をテーブル上に表示し,全周囲から立体的に視聴可能な映像表示技術は,エンターティンメント分野や産業分野での幅広い応用が考えられる.我々はこれまで,複数のユーザがテーブルトップ型ディスプレイの周囲 360 度好きな方向から,その角度に応じた 3D 映像を同時に視聴できるスクリーンシステムを提案した.このシステムでは,水平方向に対してなめらかな運動視差を提示できる一方,ユーザの身長差への対応や,視点の上下移動といった垂直方向の運動視差の提示は困難であった.そこで本稿では,スクリーン中心に設置した 360 度カメラの映像から画像認識によってテーブル周囲のユーザの視点位置を検出し,ユーザに提示する視点画像の仮想カメラを上下させることで垂直視差を再現する手法を提案する.この手法により,身長差のある複数のユーザの視聴や上下方向に視点移動を行った場合でもそれぞれのユーザに正確な3D 映像を提示できる.我々は提案手法を実装し,テーブル周囲のユーザの視点位置に合わせて対応する視点画像をリアルタイムに変更できることを確認し,垂直視差再現への提案手法の有効性を示した.
  • 松村耕平, 尾形正泰, 小野哲雄, 加藤淳, 阪口紗季, 坂本大介, 杉本雅則, 角康之, 中村裕美, 西田健志, 樋口啓太, 安尾萌, 渡邉拓貴
    情報処理学会研究報告(Web) 2017年08月
  • 藍 圭介, 坂本 大介, 小野 哲雄
    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報 2017年07月 電子情報通信学会
  • 藍 圭介, 坂本 大介, 小野 哲雄
    聴覚研究会資料 = Proceedings of the auditory research meeting 2017年07月 日本音響学会
  • 渡部 敏之, 坂本 大介, 小野 哲雄
    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報 2017年06月
  • 鈴木健司,岡部和昌,坂本竜基,坂本大介
    情報処理学会 研究報告グループウェアとネットワークサービス(GN) 2017年01月 口頭発表(一般) 情報処理学会
     
    本稿は,スマートフォンやタッチディスプレイにおいてポインティングをおこなう際,ポインタや指示したいオブジェクトが指に隠れて正確な操作ができなくなる問題,いわゆる Fat Finger Problem に対して,ポインタそのものの位置を指示するのではなく,ポインタが存在する画面を操作してポインタの位置指定を相対的におこなう手法について述べる.この手法は Fat Finger Problem が起こる多くの場面に有用であると考えられるが,本研究では特にスマートフォンにおける文字列選択がしにくい課題へのアプローチを目標とした.評価は,iOS における文章の一部文字列を本手法,および OS が標準で提供している手法それぞれで選択できるプロトタイプを作成したうえで,被験者実験をおこなった.その結果,提案手法をはじめて操作したユーザであっても従来手法と変わらない速度で作業が完了できた,もしくは早い場合があったことが確認され,また通常の手法よりも理解しやすいことが示唆された.
  • 平野 真理, 小倉 加奈子, 坂本 大介, 岩野 裕利, 山下 靖典, 土田 剛生, 下山 晴彦
    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報 2016年09月 電子情報通信学会
  • 濱中敬人,坂本大介,五十嵐健夫
    情報処理学会 研究報告ヒューマンコンピュータインタラクション(HCI) 2014年03月 口頭発表(一般) 情報処理学会
     
    日本の伝統楽器の一つ三味線は,演奏会においては暗譜演奏が慣例となっている.また,頻繁に変化する演奏速度や独特のフォーマットの譜面などの特徴は,暗譜のための練習を難しくしている.そこで本研究では,予め与えられた速度情報に則り譜面を自動スクロールし,演奏者が画面を見るだけで演奏できるシステムを提案する.加えて,本システムではマイク入力された演奏を元に譜本上で演奏箇所の探索を行い,演奏箇所が画面に収まるよう譜面スクロール速度を適応的に調整する.実装後に各機能の性能評価を行った結果,音高推定精度にはまだ改善の余地があるが,その結果を用いた楽譜探索には概ね成功し,ユーザの演奏に合わせた楽譜スクロールが可能になった.またユーザテストにおいては,参加者数は少ないもののこのシステムが演奏練習支援につながるという評価を得られた.
  • チャラアキレディ, 坂本 大介, 稲見 昌彦, 五十嵐 健夫
    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報 2013年06月 
    非母国語圏へ旅行する際,常に問題となるのが電化製品のインタフェースである.多くの機能を持ち,複雑化した操作体系を持つ電化製品を非母国語で使用する際には多くの困難が伴う.本稿では,近年非常に普及した携帯端末(スマートフォン)を利用した,電化製品のための多言語対応インタフェース"だれでもリモコン"の提案を行う.本インタフェースはNFCタグが貼られた電化製品のリモコン,もしくは操作インタフェースに携帯端末をかざすことで,ユーザが普段使用する言語で実際の電化製品を操作することができる.本稿では提案インタフェースの実装を行い,ユーザからのフィードバックを得る目的で簡単なユーザスタディを行った.
  • 坂本大介, 坂本大介
    日本ロボット学会学術講演会予稿集(CD-ROM) 2012年09月
  • 濱田健夫, 濱田健夫, 谷口祥平, 池島紗知子, 清水敬輔, 坂本大介, 坂本大介, 長谷川晶一, 稲見昌彦, 稲見昌彦, 五十嵐健夫, 五十嵐健夫
    日本バーチャルリアリティ学会大会論文集(CD-ROM) 2012年09月
  • 2P1-O01 FuwaFuwa : 反射型光センサによる柔軟物体への接触位置および圧力の計測手法(VRとインタフェース)
    杉浦 裕太, 筧 豪太, リー カリスタ, 杉本 麻樹, 坂本 大介, 稲見 昌彦, 五十嵐 健夫
    ロボティクス・メカトロニクス講演会講演概要集 2012年05月 一般社団法人日本機械学会
     
    We present the FuwaFuwa sensor module, a round, hand-size, wireless device for measuring the shape deformations of soft objects such as cushions and plush toys. It can be embedded in typical soft objects in the household without complex installation procedures and without spoiling the softness of the object because it requires no physical connection. Six LEDs in the module emit IR light in six orthogonal directions, and six corresponding photosensors measure the reflected light energy. One can easily convert almost any soft object into a touch-input device that can detect both touch position and surface displacement by embedding multiple FuwaFuwa sensor modules in the object.
  • 2P1-O02 指の擬人的な動作を用いた歩行ロボットへの操作手法(VRとインタフェース)
    杉浦 裕太, 坂本 大介, 稲見 昌彦, 五十嵐 健夫
    ロボティクス・メカトロニクス講演会講演概要集 2012年05月 一般社団法人日本機械学会
     
    We propose an operating method for bipedal robots by using two-fingered gestures on a multi-touch surface. We focus on finger gestures that people represent the human with moving fingers, such as walking, running, kicking and turning. These bipedal gestures are natural and intuitive enough for the end-users to control the humanoid robots. The system captures those finger gestures on a multi-touch display as the direct operation method. The capturing method is easy and simple, but robust enough for the entertainment applications. We show an example application with our proposed method, and demonstration at the international exhibition. We conclude with the results of observation and future implementation of our method.
  • 杉浦裕太, 杉浦裕太, 筧豪太, LEE Calista, LEE Calista, 杉本麻樹, 杉本麻樹, 坂本大介, 坂本大介, 稲見昌彦, 稲見昌彦, 五十嵐健夫, 五十嵐健夫
    日本機械学会ロボティクス・メカトロニクス講演会講演論文集(CD-ROM) 2012年05月
  • 杉浦裕太, 杉浦裕太, 坂本大介, 坂本大介, 稲見昌彦, 稲見昌彦, 五十嵐健夫, 五十嵐健夫
    日本機械学会ロボティクス・メカトロニクス講演会講演論文集(CD-ROM) 2012年05月
  • 濱田健夫, 濱田健夫, 坂本大介, 坂本大介, 稲見昌彦, 稲見昌彦, 五十嵐健夫, 五十嵐健夫
    日本バーチャルリアリティ学会大会論文集(CD-ROM) 2011年09月
  • 2A1-H05 障害物を考慮したダイポール場を用いたロボットによる物体搬送アルゴリズムの提案(ホーム&オフィスロボット)
    吉田 成朗, 坂本 大介, 稲見 昌彦, 五十嵐 健夫
    ロボティクス・メカトロニクス講演会講演概要集 2011年05月 一般社団法人日本機械学会
     
    Robots are introduced in various environments and places such as offices and homes where we mundanely live. Particularly, one of the most expected functions of home robot is the transportation of objects in a living environment. This paper proposes an algorithm of object transportation under environments with objects. This algorithm is an expansion of the object transportation by dipole field algorithm so that robots can flexibly avoid objects. We compute the midpoints of the triangles that do not contain obstacles. We then use Dijkstra's algorithm to compute a path to move the robot to the object, and then compute a path to allow the robot to push the object to the goal using the dipole field algorithm.
  • 坂本 大介
    研究報告エンタテインメントコンピューティング(EC) 2010年12月 
    エンタテインメントコンピューティング研究はまだ黎明期にあるにも関わらず,既にこれに特化した国際会議や国際ジャーナルが存在する.この流れの中で,国際舞台で活躍する人材の育成が急務となっている.本稿では,学生を追えたばかりの筆者が考えるエンタテインメントコンピューティング研究の学び方や教え方について考察する.Even though the entertainment computing research has short history, there are already some international conferences and journals. At this point, it's urgent to create the methodology of the human resource development. In this report, I discuss that how to learn and teach the entertainment computing research.
  • 福地 健太郎, 坂本 大介
    研究報告エンタテインメントコンピューティング(EC) 2010年12月 
    本稿ではこれからのエンタテインメントコンピューティング (EC) の研究において、その歴史調査の重要性について論じる。EC 研究を推進していく上では、まず歴史調査により研究の方向性や正統な評価を定めていく必要がある。また、調査結果に基いた教育用資料を作成することで、EC 分野での人材育成や、EC 研究の必要性・有用性を社会に対して発信していくべきである。最後に、EC の歴史調査を進めていく上での過去の製品・研究の動態保存について、その重要性を論じる。We discuss the importance of the study of the history of Entertainment Computing (EC) in this paper. To promote the research in EC, the study of its history is needed to evaluate research quality and design the goal of the field. The study is also essential for educational purpose for human resource development and promotion of the importance of the research in EC to our society. Finally we discuss what we should do to study the history including active preservation of products.
  • 杉浦裕太, 杉浦裕太, 筧豪太, 筧豪太, WITHANA Anusha Indrajith, WITHANA Anusha Indrajith, FERNANDO Charith Lasantha, FERNANDO Charith Lasantha, 坂本大介, 坂本大介, 稲見昌彦, 稲見昌彦, 五十嵐健夫, 五十嵐健夫
    情報処理学会シンポジウム論文集 2010年02月
  • 代蔵巧, 代蔵巧, 坂本大介, 坂本大介, 杉浦裕太, 杉浦裕太, 小野哲雄, 稲見昌彦, 稲見昌彦, 五十嵐健夫, 五十嵐健夫
    情報処理学会シンポジウム論文集 2010年02月
  • 加藤淳, 加藤淳, 坂本大介, 坂本大介, 五十嵐健夫, 五十嵐健夫
    プログラミング・シンポジウム予稿集 2010年01月
  • 福地健太郎, 坂本大介, 坂本大介, 坂本大介
    情報処理学会研究報告(CD-ROM) 2009年10月
  • 福地 健太郎, 坂本 大介
    情報処理学会研究報告. EC, エンタテインメントコンピューティング 2009年08月 
    「エンタテインメントコンピューティングは 『学』 たりうるか」 という命題に対して度々議論が起きているが,その度に皆が頭を悩ませており未だ我々の目指すところは茫漠としたままという状態である.一方で,「EC 学」 の確立はさておいて EC 研究会に集う研究者はそれぞれに 「EC 的」 であると思われる研究を積み重ね,世の中に成果を送り出さんとしている.しかし個々の研究成果は産業界に個別に浸透していくことはあっても,EC 研究の一環として認められるでもなく,また EC 研究会という組織としての世の中での存在感はあまりに希薄なままである.本報告では,いわばスペシャリスト集団としての EC 研究会の,学界・産業界における価値・存在感をいかに高めるかについて,これまでの研究を振り返った上でセントラルドグマとなりうる要素について議論を行う.
  • 1P1-F13 実世界俯瞰画面へのスケッチ動作による家庭用ロボットの動作指示インタフェース
    本田 浩一郎, 坂本 大介, 稲見 昌彦, 五十嵐 健夫
    ロボティクス・メカトロニクス講演会講演概要集 2009年05月 一般社団法人日本機械学会
     
    Recently, various kinds of home robots have been developed and are getting common in our lives. However, most of the users of home robots do not have the knowledge of hardware and robotics, so they should not be compelled to do any troublesome procedures and manipulation. In this paper, we introduce an intuitive interface for simple and direct manipulation of home robots, focusing on how to interact with robots when use them. In particular, our system adopts pen-stroke gesture as an input command on computer screen. We designed and implemented several types of gestural commands representing corresponding tasks, and then conducted some usability experiments.
  • 本田浩一郎, 本田浩一郎, 坂本大介, 坂本大介, 稲見昌彦, 稲見昌彦, 五十嵐健夫, 五十嵐健夫
    日本機械学会ロボティクス・メカトロニクス講演会講演論文集(CD-ROM) 2009年05月
  • 加藤淳, 加藤淳, 坂本大介, 坂本大介, 坂本大介, 稲見昌彦, 稲見昌彦, 五十嵐健夫, 五十嵐健夫
    情報処理学会シンポジウム論文集 2009年02月
  • 坂本 大介
    情報処理学会研究報告. EC, エンタテインメントコンピューティング 2008年06月 
    本稿では筆者が情報技術,およびロボット技術のエンタテインメントへの応用として取り組んできた3つのプロジェクトについて簡単に紹介する.その後,今後のエンタテインメントコンピューティングにおけるこれらの技術の応用について議論を行う.
  • 小野哲雄, 坂本大介, 小川浩平, 駒込大輔
    情報処理学会研究報告 2008年01月
  • 坂本大介, 坂本大介, 神田崇行, 小野哲雄, 小野哲雄, 石黒浩, 石黒浩, 萩田紀博
    情報処理学会シンポジウム論文集 2007年03月
  • 坂本大介, 坂本大介, 神田崇行, 小野哲雄, 小野哲雄, 石黒浩, 石黒浩, 萩田紀博
    情報処理学会研究報告 2006年12月
  • 坂本大介, 坂本大介, 神田崇行, 小野哲雄, 小野哲雄, 石黒浩, 石黒浩, 萩田紀博
    人工知能学会知識ベースシステム研究会資料 2006年12月
  • 坂本大介, 坂本大介, 神田崇行, 小野哲雄, 小野哲雄, 石黒浩, 石黒浩, 萩田紀博
    電子情報通信学会技術研究報告 2006年12月
  • 坂本大介, 小野哲雄
    情報処理学会研究報告 2005年11月
  • 坂本大介, 小野哲雄
    人工知能学会知識ベースシステム研究会資料 2005年11月
  • 坂本大介, 長田純一, ぜんじろう, 宮内見, 佐藤崇正, 内本友洋, 北野勇, 岡田孟, 本間正人, 小松孝徳, 鈴木昭二, 鈴木恵二, 小野哲雄, 松原仁, 畑雅之, 乾英男
    情報処理学会シンポジウム論文集 2005年09月
  • 佐藤崇正, 坂本大介, 内本友洋, 北野勇, 岡田孟, 本間正人, 小松孝徳, 鈴木昭二, 鈴木恵二, 小野哲雄, 松原仁, 畑雅之, 乾英男
    日本ロボット学会学術講演会予稿集(CD-ROM) 2005年09月
  • 鈴木昭二, 鈴木恵二, 松原仁, 小野哲雄, 小松孝徳, 内本友洋, 岡田孟, 北野勇, 坂本大介, 佐藤崇正, 本間正人, 畑雅之, 乾英男
    日本機械学会ロボティクス・メカトロニクス講演会講演論文集(CD-ROM) 2005年06月
  • 坂本大介, 小野哲雄
    プログラミング・シンポジウム報告書 2005年01月
  • 鈴木 昭二, 佐藤 崇正, 本間 正人, 畑 雅之, 乾 英男, 鈴木 恵二, 松原 仁, 小野 哲雄, 小松 孝徳, 内本 友洋, 岡田 孟, 北野 勇, 坂本 大介
    ロボティクス・メカトロニクス講演会講演概要集 2005年 一般社団法人 日本機械学会
  • Robot Musical : ロボットの振る舞いの実装に関するデザイン手法
    坂本大介
    エンタテインメントコンピューティング2005 2005年 情報処理学会
  • 坂本大介, 小野哲雄
    日本ソフトウエア科学会大会講演論文集(CD-ROM) 2005年
  • 坂本大介, 神田崇行, 小野哲雄, 今井倫太, 鎌島正幸, 石黒浩
    情報処理学会シンポジウム論文集 2004年03月

所属学協会

  • IEEE   ACM   情報処理学会   

共同研究・競争的資金等の研究課題

  • 科学技術振興機構(JST):創発的研究支援事業
    研究期間 : 2023年04月 -2026年03月 
    代表者 : 坂本 大介
  • 日本学術振興会:科学研究費助成事業 基盤研究(B)
    研究期間 : 2021年04月 -2025年03月 
    代表者 : 坂本 大介
  • 日本学術振興会:科学研究費助成事業 基盤研究(B)
    研究期間 : 2020年04月 -2023年03月 
    代表者 : 山崎 晶子, 坂本 大介, 大澤 博隆, 小林 貴訓, 中西 英之, 山崎 敬一
  • オンライン配信におけるリモート観客のエンゲージメント強化手法に関する研究
    NTT人間情報研究所:
    研究期間 : 2022年08月 -2023年03月 
    代表者 : 坂本大介、小野哲雄
  • ノーステック財団(財団法人 北海道科学技術総合振興センター):研究開発助成事業
    研究期間 : 2022年08月 -2023年03月 
    代表者 : 坂本大介, 福屋伸朗
  • 保健所による積極的疫学調査を支援するツールの研究開発
    国立研究開発法人 科学技術振興機構:研究成果展開事業
    研究期間 : 2021年08月 -2022年03月 
    代表者 : 坂本 大介
  • 公益財団法人 大川情報通信基金:2020年度 研究助成
    研究期間 : 2021年01月 -2021年12月 
    代表者 : 坂本 大介
  • 感染症危機管理における位置情報活用に向けた基盤的技術の開発
    日本医療研究開発機構(AMED):ウイルス等感染症対策技術開発事業(基礎研究支援)
    研究期間 : 2020年10月 -2021年06月 
    代表者 : 奥村 貴史, 髙橋 邦彦, 坂本 大介, 大向 一輝, 山本 泰智, 河口 信夫, 升井 洋志, 関本 義秀, 江上 周作
  • 日本学術振興会:科学研究費助成事業 基盤研究(A)
    研究期間 : 2016年04月 -2021年03月 
    代表者 : 下山 晴彦, 菅沼 慎一郎, 坂本 大介, 星野 崇宏
     
    2017度には、インターネット版認知行動療法(iCBT)である「うつ・いっぽ・いっぽ」「いっぷく堂」「レジリエンストレーニング」を搭載したポータルサイトである「こころの手帖」の改善を進めた。それと並行して、ポータルサイトの利用者が希望した場合に、インターネットを通じて利用者をサポートする心理職の教育システムの開発を進めた。具体的には、認知行動療法の実践に必要な臨床心理学の知識と技能を学ぶための映像教材を制作した。教材のコンテンツとしては、臨床心理学入門テキスト映像、認知行動療法の基礎から応用までの段階的テキスト映像、さらには利用者には必ず含まれる発達障害の知識等が盛り込まれたテキスト映像を作成した。それらの映像教材を学習した上で、「こころの手帖」の利用者の心理支援を進めるための心理職のガイドマニュアルの製作を開始し、12月までに第1版を完成させた。それと同時に、「こころの手帖」のガイドとなる心理職の教育訓練プログラムを試験的に開始した。まずは、臨床現場での受付対応の研修を受けることで、「こころの手帖」のアセスメントの技能訓練をした。これは、一般社団法人臨床心理iネットが運営する東京認知行動療法センターに協力を得てインターンシップを行った。そのうえで試験的に開始した「こころの手帖」のガイドを担当し、利用者と担当者から意見を聴取し、ガイドマニュアルの改訂を行った。さらに本格的な「こころの手帖」のガイド心理職の訓練を実施する予定の2018年2月から3月までの期間に、公認心理師受験の講習会が始まってしまい、本格的な教育訓練プログラムの実施を2ヶ月延長せざるを得なくなった。なお、iCBTのAI化を並行して進め、株式会社マインドアイルの協力を得て「いっぷく堂」のAIバージョンを開発し、公表した。
  • NTTサービスエボリューション研究所:
    研究期間 : 2019年08月 -2020年03月 
    代表者 : 小野哲雄, 坂本大介
  • 身体的特徴を考慮したボルダリングコース難易度推定とコース作成支援
    ノーステック財団(財団法人 北海道科学技術総合振興センター):研究開発助成事業
    研究期間 : 2019年08月 -2020年03月 
    代表者 : 坂本大介, 船戸大輔
  • エリアカーソル法によるロバストな視線入力インタフェースの開発
    ノーステック財団(財団法人 北海道科学技術総合振興センター):研究開発助成事業
    研究期間 : 2019年07月 -2020年03月 
    代表者 : 坂本大介
  • NTTサービスエボリューション研究所:
    研究期間 : 2018年08月 -2019年03月 
    代表者 : 小野哲雄, 坂本大介
  • 認知行動療法のICT化とサポートネットワーク構築によるバリアフリーなメンタルケア
    日本学術振興会:課題設定による先導的人文学・社会科学研究推進事業
    研究期間 : 2013年10月 -2015年09月 
    代表者 : 下山 晴彦, 高橋 美保, 平野 真理, 國吉 康夫, 坂本 大介, Edward Watkins, William Yule, 山本 奨, 石丸 径一郎, 中嶋 義文, 原田 誠一, 西田 文比古, 村瀬 嘉代子, 松丸 未来, 野田 香織
  • 日本学術振興会:科学研究費助成事業 若手研究(B)
    研究期間 : 2012年04月 -2014年03月 
    代表者 : 坂本 大介
     
    本申請課題においてはクラウドソーシングを活用することで、家庭用ロボットの家事遂行を補助するためのクラウドソーシングプラットフォームの開発を行う。クラウドソーシングを活用することにより、家庭内でのロボットによる作業のための地図作成、モノの位置の把握、ロボットの複雑なタスク遂行などが可能となる可能性がある。一方で、クラウドソーシングを家庭用ロボットへ応用するためには1)リアルタイム性、2)プライバシー問題、3)適切なロボットの操作インタフェースの設計という問題が存在する。本研究では、これらを考慮した試作システムを開発し、実際にクラウドソーシングサービス上で実験および検討を行った。
  • 日本学術振興会:科学研究費助成事業 特別研究員奨励費
    研究期間 : 2008年 -2009年 
    代表者 : 坂本 大介
     
    研究題目に沿い、本研究においては対話ロボット用のOS、特にロボットに詳しくない者においても簡単にロボット用のアプリケーションを開発することができる環境の開発を行った。ロボットが社会に広く普及するためには、多くのユーザによってそのアプリケーション開発が行われることが重要であり、本研究はこれを実現する環境を提供することを目的としていた。この環境の開発については前年度にプロトタイプの開発が終了しており、本年はこれの評価を行うために、実際にロボットのアプリケーションの開発を行った。 具体的には1)タブレットPCを用いた柔軟な家庭用ロボットへの指示インタフェースの開発を行った。ここで開発された技術はUpper Austria University of Applied Sciences, Media Interaction研究室との共同研究プロジェクトに応用され、実際に使われている。2)家庭用ロボットとの共同作業により、実際に調理を行うことができるロボットシステムの開発を行った。3)ロボットに不慣れなユーザであっても簡単にロボットを用いたエンタテインメントを経験できるような直感的なインタフェースの開発を行った。これは主に二つのプロジェクトで行われ、どちらも実際に国内会議、および国際会議においてデモンストレーションを行った。現在はさらに自然なインタラクションによるロボットとの対話技術の実現に関する研究を行っており、これについても前年度に開発した環境が重要な役割を担っている。これらのアプリケーション開発とデモンストレーションを通して、実社会におけるロボットの役割や存在意義について示していくことは分野発展のために非常に重要であると考えている。 また、これらの開発を通じて得られた結果は、実際に現在の対話ロボット用OSの開発に生かされており、有効なフィードバックが働いていると考えている。

産業財産権



Copyright © MEDIA FUSION Co.,Ltd. All rights reserved.