JP7584576B2 - Live communication system using characters - Google Patents

Live communication system using characters Download PDF

Info

Publication number
JP7584576B2
JP7584576B2 JP2023100943A JP2023100943A JP7584576B2 JP 7584576 B2 JP7584576 B2 JP 7584576B2 JP 2023100943 A JP2023100943 A JP 2023100943A JP 2023100943 A JP2023100943 A JP 2023100943A JP 7584576 B2 JP7584576 B2 JP 7584576B2
Authority
JP
Japan
Prior art keywords
input
character
distributor
viewer
viewing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023100943A
Other languages
Japanese (ja)
Other versions
JP2023126237A (en
Inventor
徹 井上
大佑 古橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iriam Inc
Original Assignee
Iriam Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iriam Inc filed Critical Iriam Inc
Priority to JP2023100943A priority Critical patent/JP7584576B2/en
Publication of JP2023126237A publication Critical patent/JP2023126237A/en
Application granted granted Critical
Publication of JP7584576B2 publication Critical patent/JP7584576B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Description

特許法第30条第2項適用 (1)平成30年9月18日にApple Inc.のTestFlight(https://developer.apple.com/jp/testflight/)を介して発表。 (2)平成30年10月4日にhttps://iriam.com/およびhttps://twitter.com/iriam_officialにて発表。 (3)平成30年10月4日にhttps://itunes.apple.com/jp/app/iriam-%E3%82%A4%E3%83%AA%E3%82%A2%E3%83%A0/id1358057296?mt=8にて発表。 (4)平成30年10月4日にhttps://play.google.com/store/apps/details?id=jp.co.duo7.vr.iriamにて発表。 (5)平成31年4月27日および平成31年4月28日に、ニコニコ超会議2019にて発表。 (6)平成31年4月27日および平成31年4月28日に、ニコニコ生放送(https://live.nicovideo.jp/gate/lv319512297およびhttps://live.nicovideo.jp/gate/lv319512342)にて発表。Application of Article 30, Paragraph 2 of the Patent Act (1) Announced on September 18, 2018 via Apple Inc.'s TestFlight (https://developer.apple.com/jp/testflight/). (2) Announced on October 4, 2018 at https://iriam.com/ and https://twitter.com/iriam_official. (3) Announced on October 4, 2018 at https://itunes.apple. com/jp/app/iriam-%E3%82%A4%E3%83%AA%E3%82%A2%E3%83%A0/id1358057296? mt=8. (4) Announced on October 4, 2018 at https://play.google.com/store/apps/details? id=jp.co.duo7.vr.iriam. (5) Announced at Niconico Chokaigi 2019 on April 27, 2019 and April 28, 2019. (6) The results will be announced on Niconico Live Broadcast (https://live.nicovideo.jp/gate/lv319512297 and https://live.nicovideo.jp/gate/lv319512342) on April 27, 2019 and April 28, 2019.

本発明は、通信ネットワークを介した視覚的なコミュニケーション技術、に関する。 The present invention relates to visual communication technology via a communication network.

スマートフォンの普及にともない、SNS(Social Networking Service)を介したコミュニケーションが一般化している。SNSでは、テキストだけでなく写真や動画像などさまざまなコンテンツを気軽に共有できる。SNSは、人と人との「絆(つながり)」を強く感じさせるツールである。 With the spread of smartphones, communication via SNS (Social Networking Services) has become common. SNS allows you to easily share a variety of content, including not only text but also photos and videos. SNS is a tool that gives you a strong sense of the "bonds" (connections) between people.

一方、コンピュータゲームの分野においては、ユーザがキャラクタ(コンピュータ)と会話をしながらプレイするゲームも多い。ユーザは、現実には存在しないキャラクタに対して強い思い入れをもつことが多い。 On the other hand, in the field of computer games, there are many games in which the user plays while having a conversation with a character (computer). Users often form strong feelings for characters that do not exist in reality.

特開2012-231281号公報JP 2012-231281 A 特願2019-002271号Patent Application No. 2019-002271

キャラクタは、ゲームデザイナーによってつくられた仮想的存在であり、人間のような実在感をもたない。その一方、キャラクタは、非実在感に起因する独特の魅力をもつ。本発明者らは、キャラクタ特有の魅力と人間特有の「リアルなつながり」の双方を取り込むことにより、新しいコミュニケーション方法を提案できるのではないかと考えた。 Characters are virtual entities created by game designers and do not have the same sense of reality as humans. However, characters have a unique charm that stems from their sense of unreality. The inventors thought that by incorporating both the unique charm of characters and the "realistic connection" that is unique to humans, they might be able to propose a new method of communication.

具体的には、配信者(人間)と視聴者(人間)の会話を想定する。配信者は、ちょうどテレビアニメの声優のようにキャラクタの代弁者となり、キャラクタを通して視聴者と会話する。このようなコミュニケーションを想定した場合、視聴者はキャラクタと言葉以上の関わりをもつことができれば、視聴者のキャラクタに対する思い入れをいっそう強めることができると考えられる。 Specifically, we consider a conversation between a streamer (human) and a viewer (human). The streamer acts as a spokesperson for the character, just like a voice actor in a television anime, and converses with the viewer through the character. If we consider this type of communication, we believe that if the viewer can have a relationship with the character that goes beyond words, this will further strengthen the viewer's attachment to the character.

本発明は、上記認識に基づいて完成された発明であり、その主たる目的は、キャラクタを介したコミュニケーションにおいて、特に、キャラクタと視聴者の非言語コミュニケーションを深化させるための技術、を提供することにある。 The present invention was completed based on the above recognition, and its main purpose is to provide technology for deepening non-verbal communication between characters and viewers in communication via characters.

本発明のある態様におけるライブ通信システムは、配信者により操作される配信装置と視聴者により操作される視聴装置を含む。
配信装置は、配信者を撮像する撮像部と、配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、配信者の手の位置に対応する第1手座標を検出する第1手検出部と、配信者から第1メッセージを受け付ける第1メッセージ取得部と、動作情報、第1手座標および第1メッセージを送信する送信部と、を備える。
視聴装置は、動作情報、第1手座標および第1メッセージを受信する受信部と、視聴者の手の位置に対応する第2手座標を検出する第2手検出部と、視聴装置の画面にキャラクタを動画表示させ、動作情報に応じてキャラクタを動作させる視聴キャラクタ表示部と、キャラクタの動作に合わせて第1メッセージを出力する第1メッセージ出力部と、第1手座標および第2手座標に基づいて、配信者の手画像である第1手および視聴者の手画像である第2手を視聴装置の画面に表示させる手表示部と、を備える。
手表示部は、第1手座標と第2手座標の距離が第1の閾値以内であるとき、第1手と第2手の握手を表示させる。
A live communication system according to an embodiment of the present invention includes a distribution device operated by a distributor and a viewing device operated by a viewer.
The distribution device includes an imaging unit that images the broadcaster, a motion information generation unit that generates motion information indicating characteristics of the broadcaster's motion from the captured image of the broadcaster, a first hand detection unit that detects first hand coordinates corresponding to the position of the broadcaster's hand, a first message acquisition unit that accepts a first message from the broadcaster, and a transmission unit that transmits the motion information, the first hand coordinates, and the first message.
The viewing device includes a receiving unit that receives movement information, a first hand coordinate, and a first message, a second hand detection unit that detects a second hand coordinate corresponding to the position of the viewer's hand, a viewing character display unit that displays a moving image of a character on the screen of the viewing device and moves the character according to the movement information, a first message output unit that outputs a first message in accordance with the character's movement, and a hand display unit that displays a first hand, which is an image of the distributor's hand, and a second hand, which is an image of the viewer's hand, on the screen of the viewing device based on the first hand coordinate and the second hand coordinate.
The hand display unit displays a handshake between the first hand and the second hand when the distance between the first hand coordinates and the second hand coordinates is within a first threshold value.

本発明によれば、キャラクタを介した豊かなコミュニケーションを実現しやすくなる。 The present invention makes it easier to realize rich communication through characters.

ライブ通信システムのハードウェア構成図である。FIG. 2 is a hardware configuration diagram of a live communication system. ライブ通信システムによる会話サービスを説明するための模式図である。FIG. 1 is a schematic diagram for explaining a conversation service provided by a live communication system. 会話ブースの外観図である。FIG. 2 is an external view of a conversation booth. 配信装置とサーバの機能ブロック図である。FIG. 2 is a functional block diagram of a distribution device and a server. 視聴装置の機能ブロック図である。FIG. 2 is a functional block diagram of the viewing device. 視聴装置に表示される視聴者会話画面の画面図である。11 is a screen diagram of a viewer conversation screen displayed on the viewing device. FIG. 配信装置に表示される配信者会話画面の画面図である。FIG. 13 is a screen diagram of a distributor conversation screen displayed on the distribution device. 配信装置および視聴装置の双方においてキャラクタを表示させる処理のシーケンス図である。FIG. 11 is a sequence diagram of a process for displaying a character on both the distribution device and the viewing device. 視聴者がキャラクタと握手する前の視聴装置の画面図である。13 is a diagram showing the screen of the viewing device before the viewer shakes hands with the character. FIG. 視聴者がキャラクタと握手したときの視聴装置の画面図である。13 is a diagram showing a screen of a viewing device when a viewer shakes hands with a character. 握手の動きを説明するための模式図である。FIG. 1 is a schematic diagram for explaining a handshake movement. キャラクタとの会話開始時における視聴装置の画面図である。13 is a diagram showing the screen of the viewing device at the start of a conversation with a character. 視聴者がキャラクタにタッチしたときの視聴装置の画面図である。13 is a diagram showing the screen of the viewing device when a viewer touches a character. キャラクタにグッズをプレゼントしたときの処理過程を示すシーケンス図である。FIG. 11 is a sequence diagram showing a process when a good is presented to a character. キャラクタにグッズを提供したときの視聴装置の画面図である。13 is a diagram showing a screen of the viewing device when a character is provided with goods. FIG. デジタルサイネージ装置の外観図である。FIG. 1 is an external view of a digital signage device. デジタルサイネージ装置の機能ブロック図である。FIG. 2 is a functional block diagram of the digital signage device. キャラクタとの手遊びをするときの視聴装置の画面図である。FIG. 13 is a diagram showing the screen of the viewing device when playing a hand game with a character.

図1は、ライブ通信システム100のハードウェア構成図である。
ライブ通信システム100においては、サーバ102に対して、複数の配信装置104a、104b・・・104m(以下、まとめて言うときや特に区別しないときには「配信装置104」と総称する)および複数の視聴装置108a、108b・・・108n(以下、まとめて言うときや特に区別しないときには「視聴装置108」と総称する)がインターネット106を介して接続される。配信装置104としては、スマートフォンを想定しているが、ラップトップPCなどの汎用コンピュータであってもよい。視聴装置108としては大型のタッチパッドを想定しているが、スマートフォンなどの他の情報機器であってもよい。
FIG. 1 is a diagram showing the hardware configuration of a live communication system 100. As shown in FIG.
In the live communication system 100, a plurality of distribution devices 104a, 104b, ..., 104m (hereinafter, collectively referred to as "distribution devices 104" when collectively referred to or when not particularly distinguished) and a plurality of viewing devices 108a, 108b, ..., 108n (hereinafter, collectively referred to as "viewing devices 108" when collectively referred to or when not particularly distinguished) are connected to a server 102 via the Internet 106. A smartphone is assumed as the distribution device 104, but it may also be a general-purpose computer such as a laptop PC. A large touch pad is assumed as the viewing device 108, but it may also be another information device such as a smartphone.

配信装置104を使用するユーザを「配信者」とよぶ。視聴装置108を使用するユーザを「視聴者」とよぶ。配信者がサービスの提供者となり、視聴者がサービスの享受者となる。 A user who uses the distribution device 104 is called a "distributor." A user who uses the viewing device 108 is called a "viewer." The distributor is the provider of the service, and the viewer is the recipient of the service.

サーバ102には、デジタルサイネージ装置300が接続される。デジタルサイネージ装置300は配信者と視聴者の会話をライブ中継または録画再生する。詳細については図16以降に関連して後述する。ライブ通信システム100にとってデジタルサイネージ装置300は必須構成ではない。 A digital signage device 300 is connected to the server 102. The digital signage device 300 broadcasts live or records and plays back conversations between the broadcaster and the viewer. Details will be described later in relation to Figure 16 onwards. The digital signage device 300 is not a required component of the live communication system 100.

図2は、ライブ通信システム100による会話サービスを説明するための模式図である。
本出願人による特許文献2に開示したライブ通信システム100においては、1つの配信装置104に対して多数の視聴装置108が同時接続し、1対多通信を前提として説明した。本実施形態にけるライブ通信システム100は、配信者110と視聴者112が1対1通信にて会話するものとして説明する。
FIG. 2 is a schematic diagram for explaining a conversation service provided by the live communication system 100. As shown in FIG.
The live communication system 100 disclosed in Patent Document 2 by the present applicant has been described on the premise that a large number of viewing devices 108 are simultaneously connected to one distribution device 104, and one-to-many communication is performed. The live communication system 100 in this embodiment will be described on the premise that a distributor 110 and a viewer 112 converse with each other through one-to-one communication.

配信者110にはあらかじめキャラクタが対応づけられる。配信装置104には配信者110に対応づけられる配信キャラクタ114aが表示される。視聴装置108にも視聴キャラクタ114bが表示される。配信キャラクタ114aと視聴キャラクタ114bはまったく同じキャラクタである。以下、配信キャラクタ114aと視聴キャラクタ114bを特に区別しないときには単に「キャラクタ114」とよぶ。 A character is assigned to the distributor 110 in advance. A distribution character 114a that is assigned to the distributor 110 is displayed on the distribution device 104. A viewing character 114b is also displayed on the viewing device 108. The distribution character 114a and the viewing character 114b are exactly the same character. Hereinafter, when there is no particular distinction between the distribution character 114a and the viewing character 114b, they will simply be referred to as "character 114".

配信者110が配信装置104の前でしゃべると、その音声データは視聴装置108に送信される。配信装置104は配信者110の口の動きを検出し、配信キャラクタ114aの口も動かす。また、これに連動して、視聴装置108は視聴キャラクタ114bの口も動かす。視聴者112には、配信者ではなく、あたかも視聴キャラクタ114bが自らの意思でしゃべっているように見える。いわば、配信者110は「声優」としてキャラクタ114の代弁者となる。以下、配信者110により入力される音声メッセージを「第1メッセージ」とよぶ。 When the distributor 110 speaks in front of the distribution device 104, the audio data is transmitted to the viewing device 108. The distribution device 104 detects the movement of the distributor's 110 mouth, and also moves the mouth of the distributed character 114a. In conjunction with this, the viewing device 108 also moves the mouth of the viewed character 114b. To the viewer 112, it appears as if the viewed character 114b is speaking of its own volition, rather than the distributor. In a sense, the distributor 110 acts as a "voice actor" and speaks for the character 114. Hereinafter, the voice message input by the distributor 110 is referred to as the "first message".

視聴者112が視聴装置108の前でしゃべると、その音声データは視聴者112本人の撮像画像(動画像)とともに配信装置104に送信される。以下、視聴者112により入力される音声メッセージを「第2メッセージ」とよぶ。特許文献2においては、視聴者112はテキストにより第2メッセージを入力するとして説明したが、本実施形態においては配信者110および視聴者112はお互いに音声にて会話をする。配信者110は視聴者112の容姿を見ることができるが(図7に関連して後述)、視聴者112は配信者110が演じる視聴キャラクタ114bだけを視認する。 When the viewer 112 speaks in front of the viewing device 108, the audio data is transmitted to the distribution device 104 along with an image (moving image) of the viewer 112 himself/herself. Hereinafter, the audio message input by the viewer 112 is referred to as a "second message." In Patent Document 2, it was explained that the viewer 112 inputs the second message by text, but in this embodiment, the distributor 110 and the viewer 112 converse with each other by voice. The distributor 110 can see the appearance of the viewer 112 (described later in relation to FIG. 7), but the viewer 112 only sees the viewing character 114b played by the distributor 110.

キャラクタ114の基本設定(キャラクタ114の容姿や表情変化の豊かさなど)と配信者110の声質や会話力によって、キャラクタ114の個性がかたちづくられる。 The personality of the character 114 is shaped by the basic settings of the character 114 (such as the character's 114 appearance and the variety of facial expressions) and the voice quality and conversational ability of the distributor 110.

視聴者112は、普段はスマートフォンなどでキャラクタ114と1対多の会話を楽しみながら、キャラクタ114に対する思い入れを深めていく(特許文献2参照)。本実施形態においては、思い入れを深めたキャラクタ114との「握手会(1対1で会える機会)」を想定する。視聴者112は、ライブ通信システム100の運営者がセッティングする会場(以下、「イベント会場」とよぶ)に来場する。イベント会場では、視聴者112はキャラクタ114と1対1の音声会話を楽しむことができる。ただし、会話の「制限時間」は1分間に設定される。会話においては、後述の方法により会話だけでなく握手も楽しむことができる。 The viewer 112 usually enjoys one-to-many conversations with the characters 114 on a smartphone or the like, and develops feelings for the characters 114 (see Patent Document 2). In this embodiment, a "handshake event (an opportunity to meet one-to-one)" with the characters 114 that the viewer 112 has developed feelings for is assumed. The viewer 112 visits a venue (hereinafter referred to as the "event venue") set up by the operator of the live communication system 100. At the event venue, the viewer 112 can enjoy one-to-one voice conversations with the characters 114. However, the "time limit" for the conversation is set to one minute. In the conversation, the viewer can enjoy not only the conversation but also a handshake, using the method described below.

図3は、会話ブース302の外観図である。
イベント会場には、キャラクタ114ごとに会話ブース302が用意される。視聴者112は、お気に入りのキャラクタ114に対応する会話ブース302に並ぶ。視聴者112はネームプレートをつけておく。視聴者112は順番が来たら会話ブース302に入る。会話ブース302は、衝立により仕切られた半閉鎖空間であり、視聴者112がキャラクタ114との会話に集中しやすい構成となっている。会話ブース302の正面には視聴装置108が設置され、視聴装置108に視聴キャラクタ114bが表示される。会話ブース302においては、視聴者112は、普段は他の視聴者112たちとともに多人数で会話をしているアイドルのようなキャラクタ114との会話時間を独占できる。
FIG. 3 is an external view of conversation booth 302.
At the event venue, a conversation booth 302 is prepared for each character 114. The viewers 112 line up at the conversation booth 302 corresponding to their favorite character 114. The viewers 112 wear nameplates. When it is their turn, the viewers 112 enter the conversation booth 302. The conversation booth 302 is a semi-closed space separated by a partition, and is configured so that the viewers 112 can easily concentrate on the conversation with the character 114. A viewing device 108 is installed in front of the conversation booth 302, and a viewing character 114b is displayed on the viewing device 108. In the conversation booth 302, the viewers 112 can monopolize the conversation time with the idol-like character 114 who usually has a conversation with a large group of other viewers 112.

視聴装置108の上部には視聴者112を撮像するためのカメラ304が取り付けられる。視聴者112の撮像画像は配信装置104に転送される。視聴装置108の下部にはプレゼントボックス306が設置される。視聴者112は、帽子や花束などのプレゼント(以下、「グッズ」とよぶ)をプレゼントボックス306の投入口308に投入できる。グッズ(物理的なオブジェクト)にはタグが設置されており、投入口308の内部にある検出装置310によってグッズのID(以下、「グッズID」とよぶ)が検出される。グッズの投入に関しては図14,図15に関連して後述する。 A camera 304 for capturing an image of the viewer 112 is attached to the top of the viewing device 108. The captured image of the viewer 112 is transferred to the distribution device 104. A present box 306 is installed at the bottom of the viewing device 108. The viewer 112 can insert presents such as hats or bouquets of flowers (hereinafter referred to as "goods") into an insertion slot 308 of the present box 306. A tag is attached to the goods (physical object), and the ID of the goods (hereinafter referred to as "goods ID") is detected by a detection device 310 inside the insertion slot 308. The insertion of goods will be described later with reference to Figures 14 and 15.

図4は、配信装置104およびサーバ102の機能ブロック図である。
配信装置104およびサーバ102の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
視聴装置108およびデジタルサイネージ装置300についても同様である。
FIG. 4 is a functional block diagram of the distribution device 104 and the server 102.
Each component of the distribution device 104 and the server 102 is realized by hardware including computing units such as a CPU (Central Processing Unit) and various coprocessors, storage devices such as memory and storage, and wired or wireless communication lines connecting them, and software stored in the storage devices and supplying processing instructions to the computing units. The computer programs may be composed of device drivers, operating systems, various application programs located at higher layers than those, and libraries that provide common functions to these programs. Each block described below shows a functional block rather than a hardware configuration.
The same applies to the audiovisual device 108 and the digital signage device 300.

(配信装置104)
配信装置104は、ユーザインタフェース処理部116、撮像部118、データ処理部120、通信部122およびデータ格納部124を含む。
通信部122は、通信処理を担当する。撮像部118は、配信者110を撮像する。ユーザインタフェース処理部116は、配信者110からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部124はキャラクタ114の画像データを含む各種データを格納する。データ処理部120は、通信部122、ユーザインタフェース処理部116、撮像部118により取得されたデータおよびデータ格納部124に格納されているデータに基づいて各種処理を実行する。データ処理部120は、ユーザインタフェース処理部116、撮像部118、通信部122およびデータ格納部124のインタフェースとしても機能する。
(Distribution device 104)
The distribution device 104 includes a user interface processing unit 116 , an imaging unit 118 , a data processing unit 120 , a communication unit 122 , and a data storage unit 124 .
The communication unit 122 is responsible for communication processing. The imaging unit 118 images the distributor 110. The user interface processing unit 116 accepts operations from the distributor 110 and is responsible for processing related to the user interface, such as image display and audio output. The data storage unit 124 stores various data including image data of the character 114. The data processing unit 120 executes various processes based on data acquired by the communication unit 122, the user interface processing unit 116, and the imaging unit 118 and data stored in the data storage unit 124. The data processing unit 120 also functions as an interface for the user interface processing unit 116, the imaging unit 118, the communication unit 122, and the data storage unit 124.

通信部122は、送信部148と受信部150を含む。 The communication unit 122 includes a transmitting unit 148 and a receiving unit 150.

ユーザインタフェース処理部116は、配信者110からの入力を受け付ける入力部126と配信者110に各種情報を出力する出力部128を含む。
入力部126は、動作検出部130と第1メッセージ取得部132を含む。動作検出部130は、撮像部118を介して配信者110の表情や体の動きを検出する。第1メッセージ取得部132は、配信者110の発話から第1メッセージ(音声メッセージ)を取得する。
動作検出部130は、第1手検出部134を含む。第1手検出部134は、配信者110の手の動きを検出する。
The user interface processing unit 116 includes an input unit 126 that accepts input from the distributor 110 and an output unit 128 that outputs various information to the distributor 110 .
The input unit 126 includes a motion detection unit 130 and a first message acquisition unit 132. The motion detection unit 130 detects facial expressions and body movements of the distributor 110 via the imaging unit 118. The first message acquisition unit 132 acquires a first message (voice message) from the speech of the distributor 110.
The action detection unit 130 includes a first hand detection unit 134. The first hand detection unit 134 detects the movement of the distributor 110's hand.

出力部128は、配信キャラクタ表示部138、第2メッセージ出力部140、手表示部142、装飾部312、オブジェクト表示部314およびライブ画像出力部332を含む。
配信キャラクタ表示部138は、配信キャラクタ114aを表示させる。第2メッセージ出力部140は視聴者112による第2メッセージ(音声メッセージ)を出力する。手表示部142は、キャラクタ114(配信者110)および視聴者112の手を模した画像(後述)を画面表示させる。装飾部312は、キャラクタ114と視聴者112が握手をしたときなどの所定の機会において視覚的効果として各種装飾画像を表示させる。握手と装飾画像については図9、図10、図11、図13等に関連して後述する。オブジェクト表示部314は、視聴者112からプレゼントされたグッズに対応する画像(以下、「グッズ画像」とよぶ)を画面表示させる。グッズ画像(仮想オブジェクト)の画面表示については図15に関連して後述する。ライブ画像出力部332は視聴者112の撮像画像を動画表示させる(図7に関連して後述する)。
The output section 128 includes a delivery character display section 138 , a second message output section 140 , a hand display section 142 , a decoration section 312 , an object display section 314 and a live image output section 332 .
The delivery character display unit 138 displays the delivery character 114a. The second message output unit 140 outputs a second message (audio message) by the viewer 112. The hand display unit 142 displays an image (described later) imitating the hands of the character 114 (the distributor 110) and the viewer 112 on the screen. The decoration unit 312 displays various decoration images as visual effects on a given occasion, such as when the character 114 and the viewer 112 shake hands. The handshake and decoration images will be described later in relation to Figures 9, 10, 11, 13, etc. The object display unit 314 displays an image (hereinafter referred to as a "goods image") corresponding to the goods presented by the viewer 112 on the screen. The display of the goods image (virtual object) on the screen will be described later in relation to Figure 15. The live image output unit 332 displays a moving image of the captured image of the viewer 112 (described later in relation to Figure 7).

データ処理部120は、動作情報生成部144を含む。
動作情報生成部144は、動作検出部130の検出結果から「動作情報」を生成する。動作情報とは、配信者110の表情を示す特徴ベクトル(例:眉の角度、目や口の開度を示す数値、配信者110と配信装置104との相対的な位置関係(前後左右)を示す数値など、配信者110の動作状態を示す数値データである。
The data processing unit 120 includes a motion information generating unit 144 .
The motion information generating unit 144 generates "motion information" from the detection result of the motion detecting unit 130. The motion information is numerical data indicating the motion state of the broadcaster 110, such as a feature vector indicating the facial expression of the broadcaster 110 (e.g., a numerical value indicating the angle of the eyebrows, the opening degree of the eyes and mouth, and a numerical value indicating the relative positional relationship (front, back, left, right) between the broadcaster 110 and the broadcasting device 104).

(サーバ102)
サーバ102は、通信部152、ライブ制御部154およびデータ格納部156を含む。
通信部152は、通信処理を担当する。データ格納部156は各種データを格納する。ライブ制御部154は、通信部152により取得されたデータおよびデータ格納部156に格納されているデータに基づいて配信装置104と視聴装置108のコミュニケーションを仲介・統括する。ライブ制御部154は、通信部152およびデータ格納部156のインタフェースとしても機能する。
データ格納部156は、複数のキャラクタ114のデータを格納するキャラクタ格納部158を含む。また、データ格納部156は、グッズIDとグッズ画像を対応づけて登録する。
(Server 102)
The server 102 includes a communication unit 152 , a live control unit 154 , and a data storage unit 156 .
The communication unit 152 is responsible for communication processing. The data storage unit 156 stores various data. The live control unit 154 mediates and manages communication between the distribution device 104 and the viewing device 108 based on the data acquired by the communication unit 152 and the data stored in the data storage unit 156. The live control unit 154 also functions as an interface between the communication unit 152 and the data storage unit 156.
The data storage section 156 includes a character storage section 158 that stores data on a plurality of characters 114. The data storage section 156 also registers a goods ID and a goods image in association with each other.

図5は、視聴装置108の機能ブロック図である。
視聴装置108は、ユーザインタフェース処理部162、データ処理部166、通信部164、撮像部316およびデータ格納部168を含む。
通信部164は、通信処理を担当する。ユーザインタフェース処理部162は、視聴者112からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。撮像部316は、カメラ304を介して視聴者112を撮像する。データ格納部168はキャラクタ114の画像データを含む各種データを格納する。配信装置104と視聴装置108はどちらもキャラクタ114のデータをそれぞれ格納する。データ処理部166は、通信部164およびユーザインタフェース処理部162により取得されたデータおよびデータ格納部168に格納されているデータに基づいて各種処理を実行する。データ処理部166は、ユーザインタフェース処理部162、通信部164、撮像部316およびデータ格納部168のインタフェースとしても機能する。
FIG. 5 is a functional block diagram of the viewing device 108.
The viewing device 108 includes a user interface processing unit 162 , a data processing unit 166 , a communication unit 164 , an imaging unit 316 and a data storage unit 168 .
The communication unit 164 is responsible for communication processing. The user interface processing unit 162 accepts operations from the viewer 112 and is responsible for processing related to the user interface, such as image display and audio output. The imaging unit 316 captures images of the viewer 112 via the camera 304. The data storage unit 168 stores various data including image data of the character 114. Both the distribution device 104 and the viewing device 108 store data of the character 114. The data processing unit 166 executes various processes based on data acquired by the communication unit 164 and the user interface processing unit 162 and data stored in the data storage unit 168. The data processing unit 166 also functions as an interface for the user interface processing unit 162, the communication unit 164, the imaging unit 316, and the data storage unit 168.

通信部122は、送信部186と受信部190を含む。 The communication unit 122 includes a transmitting unit 186 and a receiving unit 190.

ユーザインタフェース処理部162は、視聴者112からの入力を受け付ける入力部170と視聴者112に各種情報を出力する出力部172を含む。
入力部170は、第2メッセージ取得部174、第2手検出部318、オブジェクト投入部320およびオブジェクト特定部322を含む。第2メッセージ取得部174は、視聴者112の発話から第2メッセージ(音声メッセージ)を取得する。第2手検出部318は、視聴者112の手の動きを検出する。オブジェクト投入部320は、投入口308へのグッズ(物理オブジェクト)の投入を検出する。オブジェクト特定部322は、投入口308に投入されたグッズのグッズIDを読み取ることにより、グッズの種類を特定する。グッズIDが特定されたとき、通信部164の送信部186はグッズIDをサーバ102に送信する。
The user interface processing unit 162 includes an input unit 170 that receives input from the viewer 112 and an output unit 172 that outputs various information to the viewer 112 .
The input unit 170 includes a second message acquisition unit 174, a second hand detection unit 318, an object insertion unit 320, and an object identification unit 322. The second message acquisition unit 174 acquires a second message (voice message) from the speech of the viewer 112. The second hand detection unit 318 detects the hand movement of the viewer 112. The object insertion unit 320 detects the insertion of a good (physical object) into the insertion slot 308. The object identification unit 322 identifies the type of good by reading the good ID of the good inserted into the insertion slot 308. When the good ID is identified, the transmission unit 186 of the communication unit 164 transmits the good ID to the server 102.

出力部172は、視聴キャラクタ表示部180、第1メッセージ出力部182、手表示部324、装飾部326、オブジェクト表示部328および幕表示部330を含む。
視聴キャラクタ表示部180は、視聴装置108に視聴キャラクタ114bを表示させる。第1メッセージ出力部182は配信者110による第1メッセージを視聴装置108から音声出力する。手表示部324は、キャラクタ114(配信者110)および視聴者112の手の画像を画面表示させる。装飾部326は、各種装飾画像を表示させる。オブジェクト表示部328は、視聴者112がプレゼントしたグッズに対応するグッズ画像を画面表示させる。幕表示部330は会話の開始時と終了時に幕を模した画像を表示させる。幕については図12に関連して後述する。
The output section 172 includes a viewing character display section 180 , a first message output section 182 , a hand display section 324 , a decoration section 326 , an object display section 328 and a curtain display section 330 .
The viewing character display unit 180 displays the viewing character 114b on the viewing device 108. The first message output unit 182 outputs the first message by the distributor 110 as audio from the viewing device 108. The hand display unit 324 displays images of the hands of the character 114 (distributor 110) and the viewer 112 on the screen. The decoration unit 326 displays various decoration images. The object display unit 328 displays images of goods corresponding to goods given as presents by the viewer 112 on the screen. The curtain display unit 330 displays images imitating curtains at the start and end of a conversation. Curtains will be described later in relation to FIG. 12.

データ処理部166は、会話管理部290を含む。会話管理部290は、視聴者112とキャラクタ114の会話時間を管理する。会話管理部290は、所定の制限時間、たとえば、1分間が経過したとき視聴者112とキャラクタ114の会話を終了させる。 The data processing unit 166 includes a conversation management unit 290. The conversation management unit 290 manages the conversation time between the viewer 112 and the character 114. The conversation management unit 290 ends the conversation between the viewer 112 and the character 114 when a predetermined time limit, for example, one minute, has elapsed.

図6は、視聴装置108に表示される視聴者会話画面196の画面図である。
視聴キャラクタ表示部180は、おしゃべりの相手として選ばれた視聴キャラクタ114bを動画表示させる。視聴者112は、視聴装置108において視聴キャラクタ114bとの会話を楽しむ。視聴者112からは配信者110の姿が見えることはない。視聴者112は、配信者110ではなく、視聴キャラクタ114bそのものと会話しているかのような感覚を楽しむことができる。視聴装置108の第1メッセージ出力部182は、視聴キャラクタ114bを担当する配信者110からの音声(第1メッセージ)を出力する。視聴者112は、視聴キャラクタ114bに音声で話しかける(第2メッセージ)。サーバ102のライブ制御部154は、第1メッセージおよび第2メッセージを中継する。
FIG. 6 is a diagram showing a viewer conversation screen 196 displayed on the viewing device 108.
The viewing character display unit 180 displays the viewing character 114b selected as the conversation partner as a moving image. The viewer 112 enjoys a conversation with the viewing character 114b on the viewing device 108. The viewer 112 cannot see the distributor 110. The viewer 112 can enjoy the sensation of having a conversation with the viewing character 114b itself, not with the distributor 110. The first message output unit 182 of the viewing device 108 outputs a voice (first message) from the distributor 110 who is in charge of the viewing character 114b. The viewer 112 speaks to the viewing character 114b by voice (second message). The live control unit 154 of the server 102 relays the first message and the second message.

図7は、配信装置104に表示される配信者会話画面206の画面図である。
図7に示す配信者会話画面206は、配信キャラクタ114a(視聴キャラクタ114bに対応)を担当する配信者110の配信装置104に表示される。配信者会話画面206は、視聴者表示領域336とキャラクタ表示領域334に上下分割される。配信キャラクタ表示部138は、配信キャラクタ114aをキャラクタ表示領域334に動画表示させる。視聴キャラクタ114bと配信キャラクタ114aは同一キャラクタであり、動きも同じである。配信者110は、自らの分身である配信キャラクタ114aの動きを配信装置104にて確認しながら視聴者112と会話する。配信者110は、配信装置104に向かって音声にて第1メッセージを入力する。送信部148は第1メッセージをサーバ102に送信し、サーバ102のライブ制御部154は第1メッセージを視聴装置108に配信する。
FIG. 7 is a diagram showing the distributor conversation screen 206 displayed on the distribution device 104.
The distributor conversation screen 206 shown in FIG. 7 is displayed on the distribution device 104 of the distributor 110 in charge of the distribution character 114a (corresponding to the viewing character 114b). The distributor conversation screen 206 is divided into a viewer display area 336 and a character display area 334. The distribution character display unit 138 displays the distribution character 114a as a moving image in the character display area 334. The viewing character 114b and the distribution character 114a are the same character and move in the same way. The distributor 110 talks with the viewer 112 while checking the movement of the distribution character 114a, which is his/her alter ego, on the distribution device 104. The distributor 110 inputs a first message by voice to the distribution device 104. The transmission unit 148 transmits the first message to the server 102, and the live control unit 154 of the server 102 transmits the first message to the viewing device 108.

第2メッセージ出力部140は、視聴者112からの音声(第2メッセージ)を出力する。視聴者112の撮像画像は視聴装置108からサーバ102を介して配信装置104に送信される。ライブ画像出力部332は視聴者112の撮像画像(動画像)を視聴者表示領域336に表示させる。配信者110は視聴者112の様子(態度や表情)を見ながら、視聴者112と会話できる。 The second message output unit 140 outputs the voice (second message) from the viewer 112. The captured image of the viewer 112 is transmitted from the viewing device 108 to the distribution device 104 via the server 102. The live image output unit 332 displays the captured image (moving image) of the viewer 112 in the viewer display area 336. The distributor 110 can converse with the viewer 112 while observing the viewer's 112 appearance (attitude and facial expression).

配信装置104のカメラ208(撮像部118)は、配信者110を撮像する。動作検出部130は、撮像画像から配信者110の表情および動作を検出し、動作情報生成部144は動作情報を生成する。配信キャラクタ表示部138は、動作情報に基づいて配信キャラクタ114aの動きを決定する。視聴キャラクタ114bも同じ動作情報に基づいて視聴装置108にて動画表示される。 The camera 208 (imaging unit 118) of the distribution device 104 captures an image of the distributor 110. The motion detection unit 130 detects the facial expression and motion of the distributor 110 from the captured image, and the motion information generation unit 144 generates motion information. The distribution character display unit 138 determines the motion of the distribution character 114a based on the motion information. The viewing character 114b is also displayed as a video on the viewing device 108 based on the same motion information.

以上のように、視聴者112は視聴キャラクタ114bと音声にて会話する。配信者110は視聴キャラクタ114bとして視聴者112と会話する。視聴者112は配信者110の姿を見ることはできないが、配信者110は視聴者112と配信キャラクタ114a双方の姿を見ながら会話する。 As described above, the viewer 112 converses with the viewable character 114b by voice. The distributor 110 converses with the viewer 112 as the viewable character 114b. The viewer 112 cannot see the distributor 110, but the distributor 110 converses while seeing both the viewer 112 and the viewable character 114a.

図8は、配信装置104および視聴装置108の双方においてキャラクタ114を表示させる処理のシーケンス図である。
配信装置104の動作検出部130は、配信者110の動作を検出する(S10)。動作情報生成部144は、動作情報を生成する(S12)。動作情報は、配信者110の表情、体の角度、配信者110の撮像部118からの遠近などを示す数値データである(S12)。
FIG. 8 is a sequence diagram of a process for displaying the character 114 on both the distribution device 104 and the viewing device 108.
The motion detection unit 130 of the broadcasting device 104 detects the motion of the broadcaster 110 (S10). The motion information generation unit 144 generates motion information (S12). The motion information is numerical data indicating the facial expression of the broadcaster 110, the angle of the body, the distance of the broadcaster 110 from the imaging unit 118, and the like (S12).

配信装置104の送信部148は、サーバ102経由にて、視聴装置108に動作情報を送信する(S14)。配信キャラクタ表示部138は、動作情報に基づいて配信キャラクタ114aの動画像を生成し(S16)、配信装置104に配信キャラクタ114aを動画表示させる(S18)。 The transmission unit 148 of the distribution device 104 transmits the action information to the viewing device 108 via the server 102 (S14). The distribution character display unit 138 generates a moving image of the distribution character 114a based on the action information (S16) and causes the distribution device 104 to display the moving image of the distribution character 114a (S18).

一方、視聴装置108の視聴キャラクタ表示部180も、受信された動作情報に基づいて視聴キャラクタ114bの動画像を生成し(S20)、視聴装置108に視聴キャラクタ114bを動画表示させる(S22)。 Meanwhile, the viewing character display unit 180 of the viewing device 108 also generates a moving image of the viewing character 114b based on the received action information (S20), and causes the viewing device 108 to display the viewing character 114b as a moving image (S22).

配信キャラクタ114aと視聴キャラクタ114bは、同一のキャラクタであり、かつ、同一の動作情報に基づいて動きが決まるため、配信装置104および視聴装置108それぞれにおいて配信キャラクタ114aと視聴キャラクタ114bは同じ姿にて同じ動作を行う。 The distributed character 114a and the viewed character 114b are the same character, and their movements are determined based on the same motion information, so that the distributed character 114a and the viewed character 114b have the same appearance and perform the same movements on the distribution device 104 and the viewing device 108, respectively.

配信装置104は、キャラクタ114の動画像(キャラクタ画像)そのものを視聴装置108に送信しているのではなく、キャラクタ114の動作を定義する動作情報のみを送信している。動画像そのものを送信するよりも送信データ量が少ないため、配信キャラクタ114aと視聴キャラクタ114bそれぞれの動きを速やかに連動させやすい。いいかえれば、動作情報が配信キャラクタ114aの動きとして反映されるまでの時間と、同じ動作情報が視聴キャラクタ114bの動きとして反映されるまでの時間の差分が小さいため、視聴者112はキャラクタ114(配信者110)との快適な会話を楽しむことができる。 The distribution device 104 does not transmit the moving image (character image) of the character 114 itself to the viewing device 108, but only the movement information that defines the movement of the character 114. Because the amount of data transmitted is smaller than when transmitting the moving image itself, it is easier to quickly link the movements of the distributed character 114a and the viewed character 114b. In other words, because the difference in time between when the movement information is reflected as the movement of the distributed character 114a and when the same movement information is reflected as the movement of the viewed character 114b is small, the viewer 112 can enjoy a pleasant conversation with the character 114 (distributor 110).

第1メッセージ(音声メッセージ)と動作情報は一体化して配信装置104から視聴装置108に送信されてもよい。この場合には、視聴キャラクタ114bの動作と音声メッセージがずれにくくなる。また、動画像そのものではなく、動画像を決定するための動作情報を送信することは、インターネット106に対する通信負荷を抑制する上でも有効である。 The first message (audio message) and the action information may be transmitted from the distribution device 104 to the viewing device 108 in an integrated manner. In this case, the action of the viewing character 114b and the audio message are less likely to be out of sync. In addition, transmitting action information for determining the moving image, rather than the moving image itself, is also effective in reducing the communication load on the Internet 106.

配信者110が体を左右に傾けると、動作検出部130は体の傾斜を検出する。動作情報生成部144は、傾斜角および傾斜方向を動作情報に含める。視聴キャラクタ表示部180は、動作情報にしたがって、視聴キャラクタ114bを傾斜させる。配信キャラクタ表示部138も、同じ動作情報にしたがって配信キャラクタ114aを傾斜させる。このように、配信者110が体を左右に傾けると、配信側と視聴側双方のキャラクタ114は配信者110に合わせて体を傾ける。配信者110が体を前後に傾けたときにも、キャラクタ114は同様にして体を前後させる。動作検出部130は、配信者110の前傾後傾を撮像画像に映る配信者110の大きさから認識すればよい。 When the broadcaster 110 leans his/her body left or right, the motion detection unit 130 detects the inclination of the body. The motion information generation unit 144 includes the inclination angle and the inclination direction in the motion information. The viewed character display unit 180 leans the viewed character 114b according to the motion information. The broadcast character display unit 138 also leans the broadcast character 114a according to the same motion information. In this way, when the broadcaster 110 leans his/her body left or right, the characters 114 on both the broadcasting side and the viewing side lean their bodies to match the broadcaster 110. When the broadcaster 110 leans his/her body forward or backward, the characters 114 similarly lean their bodies forward or backward. The motion detection unit 130 can recognize the forward or backward lean of the broadcaster 110 from the size of the broadcaster 110 reflected in the captured image.

一般的には、体の傾斜に人間の心理が現れるといわれる。たとえば、会話に興味をもっているときに人間は前傾姿勢(聞こうという体勢)になりやすく、動揺しているときには体は左右に揺れるともいわれる。配信者110の体の動きをキャラクタ114にも反映させることにより、視聴者112はキャラクタ114(配信者110)の心理を感じ取ることができる。 It is generally said that a person's psychology is reflected in the way their body tilts. For example, it is said that when a person is interested in a conversation, they tend to lean forward (as if they are about to listen), and when they are upset, their body sways from side to side. By reflecting the body movements of the distributor 110 in the character 114, the viewer 112 can sense the psychology of the character 114 (distributor 110).

配信者110が表情を変化させるとき、動作検出部130は配信者110の表情、具体的には、目の大きさ、口の形、眉毛の角度、眉間のシワの深さや方向などを検出する。動作情報生成部144は、これらの検出値に基づいて表情を定義する特徴ベクトルを生成する。特徴ベクトルは動作情報の一部となる。配信者110が片目をつぶったとき(ウィンク)、視聴キャラクタ表示部180は視聴キャラクタ114bをウィンクさせる。配信キャラクタ114aについても同様である。 When the broadcaster 110 changes his/her facial expression, the motion detection unit 130 detects the facial expression of the broadcaster 110, specifically, the size of the eyes, the shape of the mouth, the angle of the eyebrows, the depth and direction of wrinkles between the eyebrows, etc. The motion information generation unit 144 generates a feature vector that defines the facial expression based on these detection values. The feature vector becomes part of the motion information. When the broadcaster 110 closes one eye (winks), the viewing character display unit 180 makes the viewing character 114b wink. The same is true for the broadcast character 114a.

このほかにも、舌を出す、口角を上げるなど、さまざまな表情を特徴ベクトル(動作情報)で数値表現することにより、配信者110の表情もキャラクタ114に反映させることができる。配信者110が微笑むときにはキャラクタ114も微笑む。配信者110が口をすぼめるとキャラクタ114も口をすぼめる。配信者110の表情とキャラクタ114の表情を連動させることにより、視聴者112はキャラクタ114の存在をいっそう身近に感じることができる。 In addition, by numerically expressing various facial expressions, such as sticking out the tongue or turning up the corners of the mouth, using feature vectors (motion information), the facial expression of the distributor 110 can also be reflected in the character 114. When the distributor 110 smiles, the character 114 also smiles. When the distributor 110 purses his lips, the character 114 also purses his lips. By linking the facial expressions of the distributor 110 and the character 114, the viewer 112 can feel the presence of the character 114 even closer.

図9は、視聴者112がキャラクタ114と握手する前の視聴装置108の画面図である。
視聴者112が視聴装置108の画面(以下、単に「視聴画面」とよぶ)にタッチしたとき、視聴装置108の第2手検出部318はタッチ地点の座標(以下、「第2手座標346」とよぶ)を検出する。配信者110が配信装置104の画面(以下、単に「配信画面」とよぶ)にタッチしたとき、配信装置104の第1手検出部134はタッチ地点の座標(以下、「第1手座標340」とよぶ)を検出する。視聴装置108は第2手座標346を配信装置104に送信し、配信装置104は第1手座標340を視聴装置108に送信する。視聴画面と配信画面には同一の座標系が設定されているものとする。たとえば、配信画面における第1手座標340が(x1,y1)のときには、視聴画面における第1手座標340も(x1,y1)となる。第2手座標346についても同様である。
FIG. 9 is a diagram showing the screen of the viewing device 108 before the viewer 112 shakes hands with the character 114.
When the viewer 112 touches the screen of the viewing device 108 (hereinafter simply referred to as the "viewing screen"), the second hand detection unit 318 of the viewing device 108 detects the coordinates of the touch point (hereinafter simply referred to as the "second hand coordinates 346"). When the distributor 110 touches the screen of the distribution device 104 (hereinafter simply referred to as the "distribution screen"), the first hand detection unit 134 of the distribution device 104 detects the coordinates of the touch point (hereinafter simply referred to as the "first hand coordinates 340"). The viewing device 108 transmits the second hand coordinates 346 to the distribution device 104, and the distribution device 104 transmits the first hand coordinates 340 to the viewing device 108. It is assumed that the same coordinate system is set for the viewing screen and the distribution screen. For example, when the first hand coordinates 340 on the distribution screen are (x1, y1), the first hand coordinates 340 on the viewing screen are also (x1, y1). The same applies to the second hand coordinates 346.

視聴装置108の手表示部324は、第1手座標340に第1手342を表示させる。第1手342は視聴キャラクタ114b(配信者110)の手を模した画像である。図9においては、視聴キャラクタ114bの画像とは別に第1手342を表示しているが、視聴キャラクタ114b本人の手を第1手座標340の位置に動かしてもよい。手表示部324は、また、視聴者112がタッチした地点である第2手座標346に第2手344を表示させる。第2手344は視聴者112の手を模した画像である。
配信装置104の手表示部142も、配信画面に第1手342と第2手344を表示させる。
The hand display unit 324 of the viewing device 108 displays a first hand 342 at a first hand coordinate 340. The first hand 342 is an image that imitates the hand of the viewed character 114b (the distributor 110). In Fig. 9, the first hand 342 is displayed separately from the image of the viewed character 114b, but the hand of the viewed character 114b itself may be moved to the position of the first hand coordinate 340. The hand display unit 324 also displays a second hand 344 at a second hand coordinate 346, which is the point touched by the viewer 112. The second hand 344 is an image that imitates the hand of the viewer 112.
The hand display unit 142 of the broadcasting device 104 also displays a first hand 342 and a second hand 344 on the broadcasting screen.

配信者110と視聴者112の双方がそれぞれ配信画面と視聴画面にタッチしているとき「握手可能状態」となる。一方、いずれか一方が画面から手を離すと「握手不能状態」となる。握手可能状態にあるとき、手表示部142は、第1手座標340と第2手座標346の距離(以下、「手距離d」とよぶ)を定期的に計算する。配信装置104の手表示部142も同様である。 When both the distributor 110 and the viewer 112 are touching the distribution screen and the viewing screen, respectively, they are in a "handshake possible state." On the other hand, when either one of them removes their hand from the screen, they enter a "handshake not possible state." When in a handshake possible state, the hand display unit 142 periodically calculates the distance between the first hand coordinate 340 and the second hand coordinate 346 (hereinafter referred to as "hand distance d"). The same is true for the hand display unit 142 of the distribution device 104.

図10は、視聴者112がキャラクタ114と握手したときの視聴装置108の画面図である。
握手可能状態にあるときであって、手距離dが第1閾値以内となったとき、手表示部324は第2手344と第1手342が握手する画像である握手画像338を表示させる。すなわち、配信者110と視聴者112がタッチ状態のまま互いの指(タッチ地点)を近づけることで「握手」が成立する。装飾部326は、握手が成立したとき、第1手342および第2手344の周辺に星型の装飾画像360を表示させる。装飾画像360は、握手の達成を演出する。
FIG. 10 is a diagram showing the screen of the viewing device 108 when the viewer 112 shakes hands with the character 114.
When the handshake is possible and the hand distance d is within the first threshold, the hand display unit 324 displays a handshake image 338 of the second hand 344 and the first hand 342 shaking hands. That is, the distributor 110 and the viewer 112 bring their fingers (touch points) close to each other while still in a touching state, thereby establishing a "handshake." When the handshake is established, the decoration unit 326 displays a star-shaped decoration image 360 around the first hand 342 and the second hand 344. The decoration image 360 creates the effect of the handshake being achieved.

このように、配信者110と視聴者112がそれぞれのタッチ地点を近づけることにより、視聴キャラクタ114b(二次元)と視聴者112(三次元)の「次元」を超えた握手が可能となる。会話だけではなく、キャラクタ114の手を握った、キャラクタ114が手を握ってくれたという感覚を視聴者112にもたせることにより、視聴者112とキャラクタ114の出会いをいっそう盛り上げることができる。
配信装置104においても同様の処理方法により、握手画像338が表示される。
In this way, by bringing the distributor 110 and the viewer 112 closer to each other in their touch points, a handshake that transcends the "dimensions" of the viewed character 114b (two-dimensional) and the viewer 112 (three-dimensional) becomes possible. By giving the viewer 112 the sensation of not only talking but also holding the hand of the character 114, or of the character 114 holding his/her hand, the encounter between the viewer 112 and the character 114 can be made even more exciting.
A handshake image 338 is also displayed on the broadcasting device 104 by a similar processing method.

図11は、握手の動きを説明するための模式図である。
時刻t1における第1手座標340を「第1手座標340(t1)」のように表記する。時刻t1においては、第1手座標340(t1)と第2手座標346(t1)の握手が成立しているものとする。また、第1手座標340(t1)と第2手座標346(t1)の手距離d(t1)は第2閾値以内であるとする。握手成立後も、手距離dが第2閾値以内である限り握手は継続する。
FIG. 11 is a schematic diagram for explaining the handshake movement.
The first hand coordinate 340 at time t1 is expressed as "first hand coordinate 340 (t1)". At time t1, a handshake between the first hand coordinate 340 (t1) and the second hand coordinate 346 (t1) is established. Also, the hand distance d (t1) between the first hand coordinate 340 (t1) and the second hand coordinate 346 (t1) is assumed to be within a second threshold. Even after the handshake is established, the handshake continues as long as the hand distance d is within the second threshold.

手表示部142は、第1手座標340(t1)と第2手座標346(t1)の中間点である握手点348(t1)に握手画像338(第1手342と第2手344)を表示させる。第1手座標340と第2手座標346が十分に近づけば、第2手座標346と第1手座標340が完全一致しなくても第1手342と第2手344の握手は成立する。 The hand display unit 142 displays the handshake image 338 (first hand 342 and second hand 344) at the handshake point 348 (t1), which is the midpoint between the first hand coordinate 340 (t1) and the second hand coordinate 346 (t1). If the first hand coordinate 340 and the second hand coordinate 346 are close enough, a handshake between the first hand 342 and the second hand 344 is established even if the second hand coordinate 346 and the first hand coordinate 340 do not completely match.

次に、時刻t2において第1手座標340と第2手座標346はそれぞれ変位したとする。時刻t2における手距離d(t2)も第2閾値以内であるとする。握手は維持され、握手点348は変位する。握手画像338は握手点348(t1)から握手点348(t2)に移動するため、握手の「動き」が表現される。握手画像338が所定距離以上移動したとき、あるいは、握手画像338が所定速度以上で移動したとき、装飾部326は装飾画像360を追加する。このような制御方法によれば、キャラクタ114(配信者110)と視聴者112が息を合わせて第1手342と第2手344をいっしょに動かすことで、いいかえれば、第1手座標340と第2手座標346の手距離dが第2閾値よりも大きくならないようにお互いの手をタイミングよく動かすことで握手を続けることができる。また、握手を続けるほど多数の装飾画像360を出現させることにより、握手の場面を盛り上げることができる。 Next, the first hand coordinate 340 and the second hand coordinate 346 are each displaced at time t2. The hand distance d (t2) at time t2 is also within the second threshold. The handshake is maintained, and the handshake point 348 is displaced. The handshake image 338 moves from the handshake point 348 (t1) to the handshake point 348 (t2), so the "movement" of the handshake is expressed. When the handshake image 338 moves a predetermined distance or more, or when the handshake image 338 moves at a predetermined speed or more, the decoration unit 326 adds the decoration image 360. According to this control method, the character 114 (distributor 110) and the viewer 112 can continue the handshake by moving the first hand 342 and the second hand 344 together in unison, in other words, by moving their hands in a timely manner so that the hand distance d between the first hand coordinate 340 and the second hand coordinate 346 does not become larger than the second threshold. Additionally, the more the handshake continues, the more decorative images 360 will appear, making the handshake scene more exciting.

第1閾値と第2閾値は同一でもよいが、上述したように第1閾値よりも第2閾値を大きく設定してもよい。この場合には、第1手座標340と第2手座標346を十分に近づけなければ握手できないが、いったん握手できればほどけにくいという操作感を実現できる。このような設定によれば、視聴者112はキャラクタ114との握手を継続しやすくなる。 The first and second thresholds may be the same, or, as described above, the second threshold may be set to be greater than the first threshold. In this case, it is possible to realize a feeling of operation in which, although a handshake is not possible unless the first hand coordinate 340 and the second hand coordinate 346 are brought close enough, once a handshake is made, it is difficult to come undone. With such a setting, it becomes easier for the viewer 112 to continue shaking hands with the character 114.

なお、配信装置104においても同様の表示がなされるため、配信者110も視聴者112と握手する感覚を共有する。特に、配信者110は視聴者表示領域336において視聴者112の姿や表情を視認できるため、視聴者112がキャラクタ114と握手をしているときの楽しさや嬉しさを感じとることができる。 In addition, since the same display is also made on the distribution device 104, the distributor 110 also shares the feeling of shaking hands with the viewer 112. In particular, since the distributor 110 can visually check the appearance and expression of the viewer 112 in the viewer display area 336, the distributor 110 can sense the fun and joy that the viewer 112 feels when shaking hands with the character 114.

図12は、キャラクタ114との会話開始時における視聴装置108の画面図である。
視聴者112は、会話ブース302に入るとき、視聴装置108の幕表示部330は視聴画面に幕350を表示させる。幕350により視聴キャラクタ114bは当初は遮蔽されている。視聴者がキャラクタ114を呼びかける、会話ブース302への入室を人感センサで検出する、あるいは、配信者110からの開幕指示入力がなされる、などを契機として、幕表示部330は幕350が開く動画像を表示させる。幕350の後ろにキャラクタ114が表示される。幕350が開いてお目当てのキャラクタ114が現れる演出により、視聴者112とキャラクタ114の対面を演出する。
FIG. 12 is a diagram showing the screen of the viewing device 108 at the start of a conversation with the character 114.
When the viewer 112 enters the conversation booth 302, the curtain display unit 330 of the viewing device 108 displays a curtain 350 on the viewing screen. The viewing character 114b is initially hidden by the curtain 350. When the viewer calls out to the character 114, when a human sensor detects entry into the conversation booth 302, or when an opening command is input from the distributor 110, the curtain display unit 330 displays a moving image of the curtain 350 opening. The character 114 is displayed behind the curtain 350. The curtain 350 opens to reveal the desired character 114, creating the illusion of the viewer 112 meeting the character 114.

幕表示部330は所定の開幕時間をかけて幕350を開ける演出を実行する。本実施形態における開幕時間は3秒間である。幕350の開幕あるいは閉幕に際しては、視聴装置108の出力部172は所定のオープニング音楽を流してもよい。 The curtain display unit 330 executes the performance of opening the curtain 350 over a predetermined opening time. In this embodiment, the opening time is three seconds. When the curtain 350 opens or closes, the output unit 172 of the viewing device 108 may play predetermined opening music.

開幕後、会話管理部290は会話時間を計測する。制限時間(例:1分間)が経過したとき、会話管理部290は幕表示部330に指示して幕350を閉じさせる。幕表示部330は幕350が閉じていく動画像を表示させることでキャラクタ114を徐々に遮蔽する。幕表示部330は所定の閉幕時間をかけて幕350を閉じる演出を実行する。本実施形態における閉幕時間は10秒間であるとする。 After the opening, the conversation management unit 290 measures the conversation time. When the time limit (e.g., one minute) has elapsed, the conversation management unit 290 instructs the curtain display unit 330 to close the curtain 350. The curtain display unit 330 gradually blocks the character 114 by displaying a moving image of the curtain 350 closing. The curtain display unit 330 executes the performance of closing the curtain 350 over a predetermined closing time. In this embodiment, the closing time is set to 10 seconds.

開幕時間よりも閉幕時間を長くすることで、視聴者112に「名残惜しい気持ち」をいだかせることができる。ゆっくりと閉幕させてキャラクタ114を少しずつ隠していくことにより、キャラクタ114との別れを惜しむ時間を演出し、キャラクタ114に再会したいという気持ちを視聴者112に喚起させることができる。幕350が完全に閉じるとキャラクタ114が隠され、会話時間は終了する。会話時間が終了すると、配信者110は視聴装置108から出て、次の配信者110が会話ブース302に入室する。
なお、配信装置104にも幕表示部を設け、配信画面においても同様の制御方法により幕350を表示してもよい。
Making the closing time longer than the opening time can make the viewer 112 feel "reluctant to part ways." By slowly closing the curtain and gradually hiding the character 114, a time of reluctance to say goodbye to the character 114 can be created, and the viewer 112 can be made to feel a desire to see the character 114 again. When the curtain 350 closes completely, the character 114 is hidden and the conversation time ends. When the conversation time ends, the broadcaster 110 leaves the viewing device 108, and the next broadcaster 110 enters the conversation booth 302.
It should be noted that distribution device 104 may also be provided with a curtain display unit, and curtain 350 may be displayed on the distribution screen using a similar control method.

図13は、視聴者112がキャラクタ114にタッチしたときの視聴装置108の画面図である。
視聴者112は、握手に限らず、視聴キャラクタ114bにタッチすることもできる。視聴者112は、視聴キャラクタ114bの頭部にタッチし、頭部をこする操作をすることで、第2手344(視聴者112の手)で視聴キャラクタ114bを「撫でる」ことができる。より具体的には、第2手検出部318は、タッチに際して第2手座標346を検出し、第2手座標346の検出地点が視聴キャラクタ114bの頭部領域にあるかを判定する。頭部領域をタッチしたときであって、第2手座標346が往復運動をするとき、第2手検出部318は「撫でる」操作がなされていると判定する。
FIG. 13 is a diagram showing the screen of the viewing device 108 when the viewer 112 touches the character 114.
The viewer 112 can touch the viewed character 114b, not limited to shaking hands. The viewer 112 can "pat" the viewed character 114b with the second hand 344 (the hand of the viewer 112) by touching the head of the viewed character 114b and rubbing the head. More specifically, the second hand detection unit 318 detects the second hand coordinates 346 at the time of touching and determines whether the detection point of the second hand coordinates 346 is in the head area of the viewed character 114b. When the head area is touched and the second hand coordinates 346 makes a reciprocating motion, the second hand detection unit 318 determines that a "pat" operation is being performed.

視聴キャラクタ114bを撫でるとき、装飾部326は、頭部付近にハート型の装飾画像360を表示させる。視聴キャラクタ114bを撫でれば撫でるほど、装飾部326は多くの装飾画像360を表示させる。視聴者112は、第2手344をつかって視聴キャラクタ114bを撫でることにより、キャラクタ114に対する親愛の情を行動表現できる。視聴キャラクタ表示部180は、視聴者112が視聴キャラクタ114bの頭部を撫でたとき、視聴キャラクタ114bの動作と表情を変化させる。たとえば、眼を閉じる、微笑む、くすぐったがる、肩をすくめるなどの動作や表情により、撫でる操作に対するキャラクタ114のリアクションを表現する。 When the viewed character 114b is stroked, the decoration unit 326 displays a heart-shaped decoration image 360 near the head. The more the viewed character 114b is stroked, the more decoration images 360 the decoration unit 326 displays. The viewer 112 can express affection for the character 114 by stroking the viewed character 114b with the second hand 344. When the viewer 112 strokes the head of the viewed character 114b, the viewed character display unit 180 changes the movement and facial expression of the viewed character 114b. For example, the reaction of the character 114 to the stroking operation is expressed by movements and facial expressions such as closing the eyes, smiling, tickling, and shrugging the shoulders.

このほかにも、視聴者112は視聴キャラクタ114bの頬にタッチしてスワイプすることにより、視聴キャラクタ114bの頬を引っ張るアクションを実行してもよい。また、眼や胸のように、視聴キャラクタ114bに触ってはいけない領域(以下、「不適切領域」とよぶ)を設定してもよい。視聴者112が第2手344により不適切領域をタッチしたときには、会話管理部290は会話の制限時間を短縮してもよいし、会話を打ち切って閉幕させてもよい。会話管理部290は不適切領域へのタッチが検出されるごとに会話時間を短縮するとしてもよい。装飾部326は、不適切領域へのタッチが検出されたときには警告を示す装飾画像360を表示させてもよい。このような制御方法によれば、視聴者112は視聴キャラクタ114bを無分別にタッチしなくなるため、視聴者112にキャラクタ114の人格を尊重する気持ちをもたせることができる。視聴者112がキャラクタ114を不快にさせないように関わろうとすることは、キャラクタ114の実在感をいっそう高めることに寄与する。 In addition, the viewer 112 may touch and swipe the cheek of the viewed character 114b to perform an action of pulling the cheek of the viewed character 114b. In addition, an area that should not be touched on the viewed character 114b (hereinafter referred to as an "inappropriate area"), such as the eyes or the chest, may be set. When the viewer 112 touches the inappropriate area with the second hand 344, the conversation management unit 290 may shorten the time limit of the conversation, or may terminate the conversation and close it. The conversation management unit 290 may shorten the conversation time every time a touch on an inappropriate area is detected. The decoration unit 326 may display a decoration image 360 indicating a warning when a touch on an inappropriate area is detected. According to such a control method, the viewer 112 will no longer touch the viewed character 114b indiscriminately, and the viewer 112 can be made to respect the personality of the character 114. Viewer 112's efforts to interact with character 114 in a way that does not offend him contribute to making character 114 seem more real.

上述したように会話時間の終了時には幕350がゆっくりと閉幕する。視聴者112は幕350の向こうに消えていくキャラクタ114を幕350の隙間からタッチすることで名残惜しい気持ちを行動表現できる。 As mentioned above, when the conversation time ends, the curtain 350 slowly closes. The viewer 112 can express their sadness by touching the character 114 disappearing behind the curtain 350 through the gap in the curtain 350.

図14は、キャラクタ114にグッズをプレゼントしたときの処理過程を示すシーケンス図である。
視聴者112は、お気に入りのキャラクタ114のためにグッズをプレゼントすることもできる。イベント会場では、花束、帽子、リボン、お菓子などさまざまなグッズ(物理オブジェクト)が販売されている。これらのグッズは物理的実体であり、グッズIDを記録したタグが貼付されている。このタグはRFID(Radio Frequency IDentifier)タグでもよいし、QRコード(登録商標)を記録したシールであってもよい。
FIG. 14 is a sequence diagram showing the process when a gift is given to the character 114. In FIG.
The viewer 112 can also give gifts of goods to his/her favorite character 114. At the event venue, various goods (physical objects) such as bouquets of flowers, hats, ribbons, sweets, etc. are sold. These goods are physical entities, and have tags attached thereto in which goods IDs are recorded. These tags may be RFID (Radio Frequency Identifier) tags or stickers in which QR codes (registered trademarks) are recorded.

視聴者112は、購入したグッズをプレゼントボックス306に投入することで、キャラクタ114にグッズをプレゼントする。オブジェクト投入部320は、まず、検出装置310によりグッズの通過を検出する(S30)。オブジェクト特定部322はグッズIDを光学的に読み取る(S32)。視聴装置108の送信部186は、グッズIDをサーバ102に送信する(S34)。サーバ102の通信部152は、グッズ画像(仮想オブジェクト)のデータを配信装置104と視聴装置108に送信する(S36、S37)。 The viewer 112 presents the purchased goods to the character 114 by dropping the goods into the present box 306. The object drop unit 320 first detects the passage of the goods using the detection device 310 (S30). The object identification unit 322 optically reads the goods ID (S32). The transmission unit 186 of the viewing device 108 transmits the goods ID to the server 102 (S34). The communication unit 152 of the server 102 transmits data of the goods image (virtual object) to the distribution device 104 and the viewing device 108 (S36, S37).

配信装置104のオブジェクト表示部314は、グッズ画像を配信画面に表示させる(S38)。同様にして、視聴装置108のオブジェクト表示部328は、グッズ画像を視聴画面に表示させる(S40)。サーバ102のライブ制御部154は、プレゼントされたグッズについて、グッズID、提供日時、提供した視聴者112のユーザIDと提供された配信者110(キャラクタ114)のキャラクタIDを対応づけて購入履歴として登録する(S42)。以上の処理過程により、視聴者112からキャラクタ114にグッズがプレゼントされる。 The object display unit 314 of the distribution device 104 displays the goods image on the distribution screen (S38). Similarly, the object display unit 328 of the viewing device 108 displays the goods image on the viewing screen (S40). The live control unit 154 of the server 102 registers the gifted goods as a purchase history by associating the goods ID, the date and time of provision, the user ID of the viewer 112 who provided the goods, and the character ID of the broadcaster 110 (character 114) who provided the goods (S42). Through the above process, the goods are gifted from the viewer 112 to the character 114.

図15は、キャラクタ114にグッズを提供したときの視聴装置108の画面図である。
視聴者112は、帽子(物理的実体としてのグッズ)を購入し、これをキャラクタ114にプレゼントしたとする。このとき、オブジェクト表示部314は帽子画像212(仮想的実体としてのグッズ画像)を表示させる。図15においては、視聴キャラクタ114bはプレゼントされた帽子画像212をかぶっている。視聴者112は、自分がプレゼントした帽子をキャラクタ114が着用してくれれば、自分の真心がキャラクタ114に通じたかのような満足感を味わえる。3次元の帽子が2次元の帽子画像212に変換されるため、視聴者112はキャラクタ114との「次元を超えたつながり」をいっそう感じることができる。また、視聴者112は、グッズをプレゼントすることにより、お気に入りのキャラクタ114のファッションの変化を楽しむことができる。視聴者112は、同時に複数種類のグッズをキャラクタ114にプレゼントしてもよい。
FIG. 15 is a diagram showing the screen of the viewing device 108 when a good is provided to the character 114.
It is assumed that the viewer 112 purchases a hat (goods as a physical entity) and presents it to the character 114. At this time, the object display unit 314 displays a hat image 212 (goods image as a virtual entity). In FIG. 15, the viewed character 114b is wearing the presented hat image 212. If the character 114 wears the hat that the viewer 112 presented, the viewer 112 can feel a sense of satisfaction as if his sincerity was conveyed to the character 114. Since the three-dimensional hat is converted into the two-dimensional hat image 212, the viewer 112 can feel a greater "connection beyond dimensions" with the character 114. In addition, the viewer 112 can enjoy the change in the fashion of his favorite character 114 by presenting the goods. The viewer 112 may present multiple types of goods to the character 114 at the same time.

グッズの購入金額の一部はキャラクタ114を演じる配信者110に配分される。また、実際に購入されたグッズは配信者110に与えられてもよい。視聴者112はグッズを購入することでキャラクタ114に対する愛情や応援する気持ちを表現できる。グッズ収入をインセンティブとすることにより、配信者110にも会話力向上など「愛されるための努力」を促すことができる。 A portion of the purchase price of the goods is allocated to the broadcaster 110 who plays the character 114. In addition, the goods actually purchased may be given to the broadcaster 110. By purchasing goods, the viewer 112 can express their affection for and support for the character 114. By using the merchandise income as an incentive, the broadcaster 110 can be encouraged to "make an effort to be loved," such as by improving their conversational skills.

図16は、デジタルサイネージ装置300の外観図である。
デジタルサイネージ装置300は、不特定多数の通行者を対象とした大型の広告表示装置である。本実施形態におけるデジタルサイネージ装置300は、駅や広場などに立てられる自立型の構造物であるとして説明する。
FIG. 16 is an external view of the digital signage device 300. As shown in FIG.
The digital signage device 300 is a large-scale advertisement display device targeted at an unspecified number of passersby. The digital signage device 300 in this embodiment will be described as a free-standing structure that can be set up in a station, a square, or the like.

図1に関連して説明したように、デジタルサイネージ装置300はサーバ102と接続される。デジタルサイネージ装置300は、配信者110(キャラクタ114)と視聴者112の会話をライブ中継する。デジタルサイネージ装置300のには、視聴装置108と同様の表示形式にてキャラクタ114が表示される。画面下部には会話表示領域362が設けられ、第1メッセージ(配信者110の音声)と第2メッセージ(視聴者112の音声)はいずれもテキスト表示される。通行者は、デジタルサイネージ装置300を視認することにより、キャラクタ114(配信者110)と視聴者112の会話を楽しむことができる。デジタルサイネージ装置300で会話を公開することは、配信者110にとってもキャラクタ114の魅力を多くの人にアピールする機会となる。ただし、視聴者112とキャラクタ114の会話をデジタルサイネージ装置300にて公開する場合には、視聴者112の承諾を取ることが必須条件である。 As described in relation to FIG. 1, the digital signage device 300 is connected to the server 102. The digital signage device 300 broadcasts live the conversation between the distributor 110 (character 114) and the viewer 112. The digital signage device 300 displays the character 114 in the same display format as the viewing device 108. A conversation display area 362 is provided at the bottom of the screen, and both the first message (voice of the distributor 110) and the second message (voice of the viewer 112) are displayed in text. By visually checking the digital signage device 300, passersby can enjoy the conversation between the character 114 (distributor 110) and the viewer 112. Publishing the conversation on the digital signage device 300 is also an opportunity for the distributor 110 to appeal to many people about the appeal of the character 114. However, when publishing the conversation between the viewer 112 and the character 114 on the digital signage device 300, it is a prerequisite to obtain the consent of the viewer 112.

図17は、デジタルサイネージ装置300の機能ブロック図である。
デジタルサイネージ装置300は、通信部352、表示部354およびデータ処理部356を含む。
通信部352は、通信処理を担当する。表示部354は画像を表示する。データ処理部356は、通信部352により取得されたデータに基づいて各種処理を実行する。データ処理部356は、通信部352および表示部354のインタフェースとしても機能する。
FIG. 17 is a functional block diagram of the digital signage device 300. As shown in FIG.
The digital signage device 300 includes a communication unit 352 , a display unit 354 , and a data processing unit 356 .
The communication unit 352 is responsible for communication processing. The display unit 354 displays images. The data processing unit 356 executes various processes based on data acquired by the communication unit 352. The data processing unit 356 also functions as an interface between the communication unit 352 and the display unit 354.

通信部352は、送信部358と受信部368を含む。 The communication unit 352 includes a transmitting unit 358 and a receiving unit 368.

データ処理部356は、文字変換部366を含む。サーバ102のライブ制御部154は第1メッセージと第2メッセージをデジタルサイネージ装置300にも送信する。文字変換部366は、第1メッセージおよび第2メッセージを音声から文字列(テキスト)に変換する。 The data processing unit 356 includes a character conversion unit 366. The live control unit 154 of the server 102 also transmits the first message and the second message to the digital signage device 300. The character conversion unit 366 converts the first message and the second message from voice to a character string (text).

表示部354は、キャラクタ表示部370とメッセージ表示部364を含む。キャラクタ表示部370は、サーバ102から動作情報を受信し、キャラクタ114を表示させる。メッセージ表示部364は文字変換された各種メッセージを会話表示領域362に表示させる。 The display unit 354 includes a character display unit 370 and a message display unit 364. The character display unit 370 receives operation information from the server 102 and displays the character 114. The message display unit 364 displays various converted messages in the conversation display area 362.

<総括>
以上、実施形態に基づいて、ライブ通信システム100について説明した。
本実施形態によれば、会話ブース302において、視聴者112はキャラクタ114と1対1の会話を楽しめるだけでなく、「握手」を模した操作をできるため、視聴者112とキャラクタ114(配信者110)の親密度をいっそう高めることができる。配信者110と視聴者112が同時に画面にタッチし、かつ、二人が指を近づけることで握手が成立する。握手を成立させるためには視聴者112とキャラクタ114(配信者110)には暗黙の意思疎通が必要となる。握手が成立したときに配信者110はキャラクタ114と呼吸が合ったかのような、意思が疎通したかのような独特の感覚をもつことができる。
<Summary>
The live communication system 100 has been described above based on the embodiment.
According to this embodiment, in the conversation booth 302, the viewer 112 can not only enjoy a one-on-one conversation with the character 114, but can also perform operations that mimic a "handshake," further increasing the intimacy between the viewer 112 and the character 114 (broadcaster 110). A handshake is established when the broadcaster 110 and the viewer 112 touch the screen at the same time and bring their fingers close to each other. In order to establish a handshake, an implicit communication between the viewer 112 and the character 114 (broadcaster 110) is necessary. When a handshake is established, the broadcaster 110 can have a unique sensation, as if they are in sync with the character 114 and have communicated with each other.

また、握手が成立したとき、キャラクタ114(配信者110)と視聴者112はお互いの指が離れすぎないように動かすことで握手を揺らすことができる。握手を揺らすほど、多数の装飾画像360が表示される。視聴者112とキャラクタ114(配信者110)が息を合わせて握手を継続することで、視聴者112はキャラクタ114に対する親近感をいっそう高めることができる。 In addition, when a handshake is established, the character 114 (distributor 110) and viewer 112 can shake their hands by moving their fingers so that they do not move too far apart. The more the handshake is shaken, the more decorative images 360 are displayed. As the viewer 112 and character 114 (distributor 110) continue to shake hands in sync, the viewer 112 can feel an even greater sense of closeness to the character 114.

本実施形態においては、幕350によって会話の開始と終了を演出する。幕350が開いてキャラクタ114を登場させることにより、キャラクタ114と1対1で会話できる貴重な機会に対する視聴者112の期待感を効果的に高めることができる。また、会話終了時には幕350はゆっくりと閉まるので、キャラクタ114と別れることの名残惜しさを演出できる。視聴者112は、幕350によって隠されていくキャラクタ114に対して最後になにか伝えようという気持ちになりやすい。また、この名残惜しさがキャラクタ114との再会を望む気持ちを視聴者112に喚起させることができる。 In this embodiment, the curtain 350 is used to express the beginning and end of the conversation. The curtain 350 opens to reveal the character 114, effectively heightening the viewer's 112 anticipation of the rare opportunity to have a one-on-one conversation with the character 114. In addition, the curtain 350 slowly closes when the conversation ends, which creates a sense of reluctance to part with the character 114. The viewer 112 is likely to feel the desire to say something to the character 114, who is hidden by the curtain 350. This reluctance to part can also arouse in the viewer 112 a desire to meet the character 114 again.

視聴者112は、キャラクタ114本人にタッチすることにより、握手以外のスキンシップを楽しむことができる。一方、視聴者112がキャラクタ114の不適切領域をタッチしたときには会話時間短縮などのペナルティが与えられる。配信者110は、以後、不適切行為をした視聴者112との握手を拒否することで「拒否感」を表現してもよい。このような制御方法によれば、相手の人格性を尊重したキャラクタ114との関わり方を視聴者112に促すことができる。 By touching the character 114 himself, the viewer 112 can enjoy physical contact other than a handshake. On the other hand, if the viewer 112 touches an inappropriate area of the character 114, a penalty such as a shortened conversation time is imposed. The distributor 110 may express his "rejection" by refusing to shake hands with the viewer 112 who has behaved in an inappropriate manner. This control method encourages the viewer 112 to interact with the character 114 in a way that respects the personality of the other person.

デジタルサイネージ装置300において、キャラクタ114と視聴者112の会話をライブ中継または録画表示することにより、キャラクタ114とのライブ通信会話に興味を持たない、あるいは、ライブ通信会話を知らなかったユーザにも、ライブ通信システム100の魅力を広く伝えることができる。また、配信者110にとっても、キャラクタ114の容姿や会話力を広くアピールできる機会となるため、配信者110という仕事に対する誇りを高める上でもデジタルサイネージ装置300は有用と考えられる。 By broadcasting live or recording and displaying the conversation between the character 114 and the viewer 112 on the digital signage device 300, the appeal of the live communication system 100 can be widely conveyed to users who are not interested in live communication conversations with the character 114 or who have not yet heard of live communication conversations. In addition, the digital signage device 300 is also an opportunity for the distributor 110 to widely promote the appearance and conversational ability of the character 114, so it is considered that the digital signage device 300 is also useful in increasing pride in the job of the distributor 110.

視聴者112は、グッズを購入し、これをキャラクタ114にプレゼントできる。視聴装置108にはグッズ(三次元オブジェクト)に対応するグッズ画像(二次元オブジェクト)が表示される。このため、仮想の世界の住人であるキャラクタ114に対して、実在の世界のグッズをプレゼントすることで、視聴者112にはキャラクタ114に対する親愛の情を示す機会が提供される。 The viewer 112 can purchase goods and give them to the character 114 as a gift. A goods image (two-dimensional object) corresponding to the goods (three-dimensional object) is displayed on the viewing device 108. This provides the viewer 112 with an opportunity to show affection for the character 114, who is a resident of the virtual world, by giving the character 114 a real-world good.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。 The present invention is not limited to the above-described embodiments and modifications, and can be embodied by modifying the components without departing from the spirit of the invention. Various inventions may be formed by appropriately combining multiple components disclosed in the above-described embodiments and modifications. In addition, some components may be deleted from all the components shown in the above-described embodiments and modifications.

[変形例]
<手あそび>
図18は、キャラクタ114との手遊びをするときの視聴装置108の画面図である。
本実施形態においては、配信者110と視聴者112はそれぞれ配信画面と視聴画面にタッチすることで第1手342と第2手344を表示させるとして説明した。変形例として、配信画面等へのタッチではなく、画像認識により配信者110と視聴者112の手の位置を検出してもよい。配信者110と視聴者112は、たとえば、白い手袋を嵌めてもよい。この場合には、第1手検出部134および第2手検出部318は、撮像画像から配信者110と視聴者112の手の位置をより確実に認識しやすくなる。
[Modification]
<Hand games>
FIG. 18 is a diagram showing the screen of the audiovisual device 108 when playing a hand game with the character 114.
In the present embodiment, the distributor 110 and the viewer 112 have been described as displaying the first hand 342 and the second hand 344 by touching the distribution screen and the viewing screen, respectively. As a modified example, the positions of the hands of the distributor 110 and the viewer 112 may be detected by image recognition, rather than touching the distribution screen, etc. The distributor 110 and the viewer 112 may wear white gloves, for example. In this case, the first hand detection unit 134 and the second hand detection unit 318 can more reliably recognize the positions of the hands of the distributor 110 and the viewer 112 from the captured image.

第1手検出部134は配信者110の手を画像認識により検出し、手の検出位置に基づいて第1手座標340を特定する。撮像画像に映る物体の位置を画面に投影することで画面上の座標に変換する技術は既知技術の応用により可能である。同様にして、第2手検出部318は視聴者112の手の位置を画像認識により検出し、第2手座標346を特定する。 The first hand detection unit 134 detects the hand of the distributor 110 through image recognition, and identifies the first hand coordinate 340 based on the detected position of the hand. The technology for converting the position of an object shown in a captured image into coordinates on the screen by projecting it onto the screen is possible through the application of known technology. Similarly, the second hand detection unit 318 detects the position of the hand of the viewer 112 through image recognition, and identifies the second hand coordinate 346.

第1手検出部134は、配信者110の手の位置だけでなく手の形状(手指の状態)を画像認識する。第2手検出部318も、視聴者112の手の形状を画像認識する。手表示部142等は、配信者110および視聴者112それぞれの手の形状に基づいて第1手342および第2手344の手の形状を変化させる。このような制御方法によれば、たとえば、視聴者112はキャラクタ114(配信者110)との「じゃんけん」のような手遊びを楽しむこともできる。 The first hand detection unit 134 performs image recognition of not only the position of the distributor's 110 hand but also the shape of the hand (condition of the fingers). The second hand detection unit 318 also performs image recognition of the shape of the viewer's 112 hand. The hand display unit 142 etc. changes the shapes of the first hand 342 and the second hand 344 based on the hand shapes of the distributor 110 and the viewer 112, respectively. With this control method, for example, the viewer 112 can enjoy playing hand games such as "rock-paper-scissors" with the character 114 (distributor 110).

視聴者112の顔の向きは配信者110から視認できる。配信者110の顔の向きはキャラクタ114の動作として反映される。手の形状だけでなく顔の向きも相互認識できれば「あっち向いてホイ」のような体をつかった遊びも可能である。手遊びの勝敗は配信者110と視聴者112が自主的に判断してもよいし、サーバ102に「勝敗判定部」を設けてもよい。勝敗判定部は、たとえば、じゃんけんの場合には配信者110の手の形状と視聴者112の手の形状それぞれから「グー」「チョキ」「パー」を認識し、キャラクタ114(配信者110)と視聴者112のどちらが勝ったかを判定する。 The face direction of the viewer 112 can be seen by the broadcaster 110. The face direction of the broadcaster 110 is reflected as the movement of the character 114. If the face direction as well as the hand shapes can be mutually recognized, it is also possible to play games using the body such as "rock, paper, scissors." The winner of the hand game may be determined independently by the broadcaster 110 and the viewer 112, or a "win/loss determination unit" may be provided in the server 102. For example, in the case of rock-paper-scissors, the win/loss determination unit recognizes "rock," "scissors," or "paper" from the hand shapes of the broadcaster 110 and the viewer 112, respectively, and determines whether the character 114 (broadcaster 110) or the viewer 112 has won.

また、勝敗に応じて、視聴者112にメリットまたはデメリットを与えてもよい。たとえば、手遊びに勝てば会話時間を延長してもよいし、視聴者112に頼まれたセリフをキャラクタ114(配信者110)が発話するとしてもよいし、キャラクタ114にキーホルダーなどのノベルティを与えるとしてもよい。 In addition, the viewer 112 may be given merits or demerits depending on whether he wins or loses. For example, if he wins the hand game, the conversation time may be extended, the character 114 (distributor 110) may say lines requested by the viewer 112, or the character 114 may be given a novelty item such as a key chain.

<キャラクタ114との撮影>
配信者110はキャラクタ114と記念撮影をしてもよい。視聴装置108の撮像部316は視聴者112を撮像する。視聴装置108のデータ処理部166は「画像生成部」を備えてもよい。画像生成部は、視聴者112の撮像画像とキャラクタ114を合成することで2ショットの記念写真を生成する。視聴装置108の送信部186は、記念写真を視聴者112の携帯端末に送信してもよい。
<Photo taken with character 114>
The distributor 110 may take a commemorative photo with the character 114. The imaging unit 316 of the viewing device 108 captures an image of the viewer 112. The data processing unit 166 of the viewing device 108 may include an "image generation unit." The image generation unit generates a commemorative photo of the two of them by combining the captured image of the viewer 112 with the character 114. The transmission unit 186 of the viewing device 108 may transmit the commemorative photo to a mobile terminal of the viewer 112.

記念写真に限らず動画撮影によるショートムービーを作成してもよい。視聴者112は、記念撮影にあたってキャラクタ114にポーズを要求してもよいし、言ってほしいセリフを求めてもよい。キャラクタ114の動画像と視聴者112の撮像画像(動画像)を組み合わせて視聴者112とキャラクタ114が映るショートムービーを来場記念として視聴者112にプレゼントしてもよい。 In addition to commemorative photographs, short movies may be created by shooting moving images. The viewer 112 may request the character 114 to pose for the commemorative photograph, or may request lines that they would like to hear. A short movie showing the viewer 112 and the character 114 may be presented to the viewer 112 as a memento of their visit, combining the moving image of the character 114 with an image (moving image) captured by the viewer 112.

<手の動かし方>
視聴者112がキャラクタ114をタッチしたときの手の動かし方によって、キャラクタ114への関わり方を表現してもよい。たとえば、視聴者112が視聴画面をタッチしたまま手をゆっくりと左右に動かすときには第2手344によりやさしくキャラクタ114を撫でている様子を表現してもよい。具体的には、第2手検出部318は視聴者112の手の動きを検出し、手の動く速度が所定範囲内であれば「撫でる」と判定してもよい。また、視聴者112が手をすばやく動かすときには、第2手344がキャラクタ114を叩いている様子を表現してもよい。この場合には、不適切行為としてキャラクタ114にペナルティを与えてもよい。キャラクタ114へのタッチ箇所だけでなくタッチ方法によって、装飾部326はさまざまな装飾画像360を画面表示させてもよい。
<How to move your hands>
The viewer 112 may express his/her involvement with the character 114 by the way he/she moves his/her hand when touching the character 114. For example, when the viewer 112 slowly moves his/her hand from side to side while touching the viewing screen, the second hand 344 may express the viewer 112 gently stroking the character 114. Specifically, the second hand detection unit 318 may detect the movement of the viewer 112's hand, and may determine that the hand movement speed is within a predetermined range as "stroking". In addition, when the viewer 112 moves his/her hand quickly, the second hand 344 may express the viewer 112 hitting the character 114. In this case, the character 114 may be penalized as an inappropriate behavior. The decoration unit 326 may display various decoration images 360 on the screen depending on not only the touch location but also the touch method on the character 114.

<その他>
ライブ制御部154は、不適切行為をしたキャラクタ114をブラックリストに登録してもよい。ライブ制御部154は、キャラクタ114に会いに来た視聴者112、視聴者112から提供されたグッズのほか、視聴者112による不適切行為の有無を登録してもよい。会話の開始にあたっては、ライブ制御部154は配信者110に対して視聴者112に関する各種の属性情報を送信して提示する。配信者110はこの属性情報を参照することにより、初めて会いに来た視聴者112なのか、前回プレゼントをくれた視聴者112なのかなどさまざまな個人情報を確認できるため、多種多様な視聴者112(ファン)に対して適切な対応が可能となる。たとえば、前回の会話のときに帽子をくれた視聴者112であれば、帽子をくれたお礼をすることによりこの視聴者112はキャラクタ114が自分を覚えてくれていたことを知って安心するかもしれない。
<Other>
The live control unit 154 may register the character 114 who has engaged in inappropriate behavior on a blacklist. The live control unit 154 may register the viewer 112 who came to meet the character 114, the goods provided by the viewer 112, and whether or not the viewer 112 engaged in inappropriate behavior. When starting a conversation, the live control unit 154 transmits and presents various attribute information regarding the viewer 112 to the distributor 110. By referring to this attribute information, the distributor 110 can confirm various personal information, such as whether the viewer 112 is visiting for the first time or whether the viewer 112 gave a present last time, and therefore can respond appropriately to a wide variety of viewers 112 (fans). For example, if the viewer 112 gave the character 114 a hat in the last conversation, the viewer 112 may feel relieved by thanking the character 114 for the hat, knowing that the character 114 remembered him.

同様にして、不適切行為(不適切領域へのタッチや不愉快な発言など)をしたことのある視聴者112に対しては、キャラクタ114(配信者110)は握手拒否や会話時間の短縮などにより視聴者112に不快感を伝えることができる。このような方法によれば、キャラクタ114(アイドル)に対する視聴者112(ファン)のマナーが醸成されていくため、視聴者112のキャラクタ114を一人格として尊重する気持ちを高めやすくなる。また、こういったマナーはキャラクタ114の実在感や重要感をいっそう高め点においても有効であると考えられる。 Similarly, for viewers 112 who have engaged in inappropriate behavior (such as touching inappropriate areas or making unpleasant remarks), the character 114 (distributor 110) can convey his or her displeasure to the viewer 112 by refusing to shake hands or shortening the conversation time. This method fosters good manners among the viewers 112 (fans) toward the character 114 (idol), making it easier for the viewers 112 to respect the character 114 as an individual. This manner is also thought to be effective in further increasing the sense of reality and importance of the character 114.

本実施形態においては、キャラクタ114の画像とは別に第1手342を表示するとして説明した。手表示部324等はキャラクタ114そのものを動かすことで視聴者112とキャラクタ114の握手を表現してもよい。また、視聴者112がキャラクタ114の手をタッチすることで握手を成立させてもよい。 In this embodiment, the first hand 342 is displayed separately from the image of the character 114. The hand display unit 324 or the like may express a handshake between the viewer 112 and the character 114 by moving the character 114 itself. Also, the viewer 112 may touch the hand of the character 114 to complete the handshake.

視聴装置108の出力部172は、握手が成立したとき効果音を出力してもよいし、内蔵バイブレータにより視聴者112に触感を与えてもよい。また、出力部172は、会話ブース302に設置される照明装置(図示せず)を操作して、握手が成立したときに照明光量や照明色を変化させることで握手を演出してもよい。出力部172は、効果などの演出をキャラクタ114ごと、あるいは、握手の回数や時間ごとに異ならせてもよい。装飾部326はキャラクタ114ごとに複数種類の装飾画像360を表示してもよい。 The output unit 172 of the viewing device 108 may output a sound effect when a handshake is made, or may provide a tactile sensation to the viewer 112 using a built-in vibrator. The output unit 172 may also operate a lighting device (not shown) installed in the conversation booth 302 to change the amount of light or color of lighting when a handshake is made, to create the effect of a handshake. The output unit 172 may vary the effects and other presentation for each character 114, or for the number or duration of handshakes. The decoration unit 326 may display multiple types of decoration images 360 for each character 114.

配信装置104は「文字変換部」を備えてもよい。配信装置104の文字変換部は第1メッセージ(音声)と第2メッセージ(音声)を文字変換し、配信画面に表示させてもよい。このような制御方法によれば配信者110は視聴者112との会話内容を確認しながら会話を続けることができる。ライブ制御部154は、キャラクタ114(配信者110)と視聴者112の会話を文字情報として記録しておき、会話開始時においては配信者110に過去の会話記録を提供してもよい。過去の会話記録を提供することにより配信者110は多数の視聴者112に対してきめ細かい対応をしやすくなる。 The distribution device 104 may be equipped with a "text conversion unit." The text conversion unit of the distribution device 104 may convert the first message (audio) and the second message (audio) into text and display them on the distribution screen. With this control method, the distributor 110 can continue the conversation while checking the content of the conversation with the viewer 112. The live control unit 154 may record the conversation between the character 114 (distributor 110) and the viewer 112 as text information, and provide the distributor 110 with a record of the past conversation when the conversation begins. By providing the record of the past conversation, the distributor 110 can more easily respond to a large number of viewers 112 in a detailed manner.

本実施形態においては握手について説明したが、握手に限らず手合わせやハイタッチをしてもよい。視聴者112は視聴画面に手のひらを載せる。配信者110も配信画面に手のひらを載せる。二人の手座標が所定範囲内に近づいたとき、手表示部324等は手合わせやハイタッチなどのアニメーションを表示させてもよい。このときにも、装飾部326は装飾画像360を表示させてもよい。 In this embodiment, a handshake has been described, but it is not limited to a handshake; a clap of hands or a high-five may also be used. The viewer 112 places the palm of his/her hand on the viewing screen. The distributor 110 also places the palm of his/her hand on the distribution screen. When the hand coordinates of the two people approach within a predetermined range, the hand display unit 324 or the like may display an animation such as a clap of hands or a high-five. At this time, the decoration unit 326 may also display a decoration image 360.

<他の応用例>
ライブ通信システム100は、無人店舗による接客にも利用できる。たとえば、現在、コンビニエンスストアなどで普及しつつあるセルフレジに視聴装置108を設置してもよい。遠隔地にいる店員(配信者110)はキャラクタ114として来店者(視聴者112)と対話する。来店者はキャラクタ114と対話しながら買い物を楽しむことができる。また、服などの買い物についてキャラクタ114(配信者110)からアドバイスを受けてもよい。ライブ通信システム100を応用すれば、来店者は無人店舗であっても接客の温かみを感じることができる。また、配信者110を店舗に常駐させる必要がないため、店舗側としても運営負担を軽減できるメリットがある。
<Other application examples>
The live communication system 100 can also be used for customer service in unmanned stores. For example, the viewing device 108 may be installed in a self-checkout register, which is currently becoming popular in convenience stores and the like. A store clerk (distributor 110) in a remote location interacts with a visitor (viewer 112) as a character 114. The visitor can enjoy shopping while interacting with the character 114. The visitor may also receive advice from the character 114 (distributor 110) about shopping for clothes and the like. By applying the live communication system 100, the visitor can feel the warmth of the customer service even in an unmanned store. In addition, since the broadcaster 110 does not need to be present at the store, there is an advantage in that the operational burden on the store side can be reduced.

店舗に限らず、老人ホームや幼稚園など、遠隔地からのキャラクタ114を介した会話サービスも考えられる。キャラクタ114という非日常性と配信者110の実在感を融合させることにより、キャラクタ114を相手とする気安さと配信者110の人格性を融合させる。配信者110は同時に複数の視聴者112に対して接客できることもメリットである。 In addition to stores, conversation services using characters 114 from remote locations such as nursing homes and kindergartens are also possible. By combining the extraordinary nature of the characters 114 with the real presence of the distributor 110, the ease of interacting with the characters 114 can be combined with the personality of the distributor 110. Another advantage is that the distributor 110 can serve multiple viewers 112 at the same time.

ライブ通信システム100を使った遠隔授業も考えられる。たとえば、英語教師が配信者110となり、生徒が視聴者112となる。配信者110(英語教師)はキャラクタ114として視聴者112(生徒)に遠隔地から英語レッスンサービスを提供してもよい。 Remote lessons using the live communication system 100 are also possible. For example, an English teacher may be the broadcaster 110 and students may be the viewers 112. The broadcaster 110 (English teacher) may provide English lesson services to viewers 112 (students) from a remote location as a character 114.

ライブ通信システム100により、キャラクタ114同士のディスカッションも可能である。たとえば、ユーザXはキャラクタ114xを演じ、ユーザYはキャラクタ114yを演じるとする。ユーザXの通信端末にはキャラクタ114yが表示され、ユーザYの通信端末にはキャラクタ114xが表示される。このような制御方法によれば、ユーザXとユーザYはお互いにキャラクタ114という「仮面」をかぶった状態で匿名的な会話を楽しむことができる。このほかにも遠隔宴会(合同コンパ)なども考えられる。ユーザはキャラクタ114を介して出会うため容姿ではなく人格本位の会話ができる可能性がある。 The live communication system 100 also enables discussions between characters 114. For example, assume that user X plays character 114x, and user Y plays character 114y. Character 114y is displayed on user X's communication terminal, and character 114x is displayed on user Y's communication terminal. With this control method, user X and user Y can enjoy anonymous conversation while wearing the "mask" of their character 114. Other possibilities include remote parties (joint get-togethers). Because users meet through characters 114, there is a possibility that they can have conversations centered on personality rather than appearance.

100 ライブ通信システム、102 サーバ、104 配信装置、106 インターネット、108 視聴装置、110 配信者、112 視聴者、114 キャラクタ、114a 配信キャラクタ、114b 視聴キャラクタ、116 ユーザインタフェース処理部、118 撮像部、120 データ処理部、122 通信部、124 データ格納部、126 入力部、128 出力部、130 動作検出部、132 第1メッセージ取得部、134 第1手検出部、138 配信キャラクタ表示部、140 第2メッセージ出力部、142 手表示部、144 動作情報生成部、148 送信部、150 受信部、152 通信部、154 ライブ制御部、156 データ格納部、158 キャラクタ格納部、162 ユーザインタフェース処理部、164 通信部、166 データ処理部、168 データ格納部、170 入力部、172 出力部、174 第2メッセージ取得部、180 視聴キャラクタ表示部、182 第1メッセージ出力部、186 送信部、190 受信部、196 視聴者会話画面、206 配信者会話画面、208 カメラ、212 帽子画像、290 会話管理部、300 デジタルサイネージ装置、302 会話ブース、304 カメラ、306 プレゼントボックス、308 投入口、310 検出装置、312 装飾部、314 オブジェクト表示部、316 撮像部、318 第2手検出部、320 オブジェクト投入部、322 オブジェクト特定部、324 手表示部、326 装飾部、328 オブジェクト表示部、330 幕表示部、332 ライブ画像出力部、334 キャラクタ表示領域、336 視聴者表示領域、338 握手画像、340 第1手座標、342 第1手、344 第2手、346 第2手座標、348 握手点、350 幕、352 通信部、354 表示部、356 データ処理部、358 送信部、360 装飾画像、362 会話表示領域、364 メッセージ表示部、366 文字変換部、368 受信部、370 キャラクタ表示部、d 手距離 100 live communication system, 102 server, 104 distribution device, 106 Internet, 108 viewing device, 110 distributor, 112 viewer, 114 character, 114a distribution character, 114b viewing character, 116 user interface processing unit, 118 imaging unit, 120 data processing unit, 122 communication unit, 124 data storage unit, 126 input unit, 128 output unit, 130 motion detection unit, 132 first message acquisition unit, 134 first hand detection unit, 138 distribution character display unit, 140 second message output unit, 142 hand display unit, 144 motion information generation unit, 148 transmission unit, 150 reception unit, 152 communication unit, 154 live control unit, 156 data storage unit, 158 character storage unit, 162 user interface processing unit, 164 communication unit, 166 Data processing unit, 168 Data storage unit, 170 Input unit, 172 Output unit, 174 Second message acquisition unit, 180 Viewing character display unit, 182 First message output unit, 186 Transmission unit, 190 Reception unit, 196 Viewer conversation screen, 206 Distributor conversation screen, 208 Camera, 212 Hat image, 290 Conversation management unit, 300 Digital signage device, 302 Conversation booth, 304 Camera, 306 Present box, 308 Insertion port, 310 Detection device, 312 Decoration unit, 314 Object display unit, 316 Imaging unit, 318 Second hand detection unit, 320 Object insertion unit, 322 Object identification unit, 324 Hand display unit, 326 Decoration unit, 328 Object display unit, 330 Curtain display unit, 332 Live image output unit, 334 Character display area, 336 Viewer display area, 338 handshake image, 340 first hand coordinates, 342 first hand, 344 second hand, 346 second hand coordinates, 348 handshake point, 350 curtain, 352 communication unit, 354 display unit, 356 data processing unit, 358 transmission unit, 360 decorative image, 362 conversation display area, 364 message display unit, 366 character conversion unit, 368 reception unit, 370 character display unit, d hand distance

Claims (13)

配信者により操作される配信装置と視聴者により操作される視聴装置を含み、
前記配信装置は、
配信者を撮像する撮像部と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
配信者の入力の位置に対応する第1入力座標を検出する第1入力検出部と、
前記動作情報および前記第1入力座標を送信する送信部と、を備え、
前記視聴装置は、
前記動作情報および前記第1入力座標を受信する受信部と、
視聴者の入力の位置に対応する第2入力座標を検出する第2入力検出部と、
前記視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う所定表示部と、を備え、
前記視聴装置の前記所定表示部は、前記配信者及び前記視聴者の双方の入力が維持されている状態にあるときのみ、前記所定位置関係を満たすか否かを判定することを特徴とするライブ通信システム。
A distribution device operated by a distributor and a viewing device operated by a viewer,
The distribution device includes:
An imaging unit that images a broadcaster;
a motion information generating unit that generates motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
a first input detection unit that detects a first input coordinate corresponding to a position of an input by a distributor;
a transmission unit that transmits the motion information and the first input coordinates,
The viewing device includes:
a receiving unit that receives the motion information and the first input coordinates;
a second input detection unit that detects second input coordinates corresponding to a position of a viewer's input;
a viewing character display unit that displays a moving image of a character on a screen of the viewing device and moves the character in accordance with the action information;
a predetermined display unit that determines whether the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and performs a predetermined display on a screen of the viewing device when the predetermined positional relationship is satisfied,
A live communication system characterized in that the specified display unit of the viewing device determines whether the specified positional relationship is satisfied only when input from both the distributor and the viewer is maintained .
配信者により操作される配信装置と視聴者により操作される視聴装置を含み、A distribution device operated by a distributor and a viewing device operated by a viewer,
前記配信装置は、The distribution device includes:
配信者を撮像する撮像部と、An imaging unit that images a broadcaster;
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、a motion information generating unit that generates motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
配信者の入力の位置に対応する第1入力座標を検出する第1入力検出部と、a first input detection unit that detects a first input coordinate corresponding to a position of an input by a distributor;
前記動作情報および前記第1入力座標を送信する送信部と、を備え、a transmission unit that transmits the motion information and the first input coordinates,
前記視聴装置は、The viewing device includes:
前記動作情報および前記第1入力座標を受信する受信部と、a receiving unit that receives the motion information and the first input coordinates;
視聴者の入力の位置に対応する第2入力座標を検出する第2入力検出部と、a second input detection unit that detects second input coordinates corresponding to a position of a viewer's input;
前記視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、a viewing character display unit that displays a moving image of a character on a screen of the viewing device and moves the character in accordance with the action information;
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う所定表示部と、を備え、a predetermined display unit that determines whether the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and performs a predetermined display on a screen of the viewing device when the predetermined positional relationship is satisfied,
前記視聴装置の前記所定表示部は、前記所定表示の開始後、前記第1入力座標および前記第2入力座標が前記所定位置関係を満たさなくなったとき前記所定表示を解消することを特徴とするライブ通信システム。A live communication system characterized in that the specified display unit of the viewing device cancels the specified display when, after the specified display has started, the first input coordinates and the second input coordinates no longer satisfy the specified positional relationship.
配信者により操作される配信装置と視聴者により操作される視聴装置を含み、A distribution device operated by a distributor and a viewing device operated by a viewer,
前記配信装置は、The distribution device includes:
配信者を撮像する撮像部と、An imaging unit that images a broadcaster;
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、a motion information generating unit that generates motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
配信者の入力の位置に対応する第1入力座標を検出する第1入力検出部と、a first input detection unit that detects a first input coordinate corresponding to a position of an input by a distributor;
前記動作情報および前記第1入力座標を送信する送信部と、を備え、a transmitter for transmitting the motion information and the first input coordinates,
前記視聴装置は、The viewing device includes:
前記動作情報および前記第1入力座標を受信する受信部と、a receiving unit that receives the motion information and the first input coordinates;
視聴者の入力の位置に対応する第2入力座標を検出する第2入力検出部と、a second input detection unit that detects second input coordinates corresponding to a position of a viewer's input;
前記視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、a viewing character display unit that displays a moving image of a character on a screen of the viewing device and moves the character in accordance with the action information;
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う所定表示部と、を備え、a predetermined display unit that determines whether the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and performs a predetermined display on a screen of the viewing device when the predetermined positional relationship is satisfied,
前記配信装置の前記第1入力検出部は、前記配信装置の画面に配信者がタッチしたときのタッチ地点に基づいて前記第1入力座標を検出し、the first input detection unit of the broadcasting device detects the first input coordinates based on a touch point when a broadcaster touches a screen of the broadcasting device;
前記視聴装置の前記第2入力検出部は、前記視聴装置の画面に視聴者がタッチしたときのタッチ地点に基づいて前記第2入力座標を検出することを特徴とするライブ通信システム。A live communication system, characterized in that the second input detection unit of the viewing device detects the second input coordinates based on a touch point when a viewer touches a screen of the viewing device.
配信者により操作される配信装置と視聴者により操作される視聴装置を含み、A distribution device operated by a distributor and a viewing device operated by a viewer,
前記配信装置は、The distribution device includes:
配信者を撮像する撮像部と、An imaging unit that images a broadcaster;
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、a motion information generating unit that generates motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
配信者の入力の位置に対応する第1入力座標を検出する第1入力検出部と、a first input detection unit that detects a first input coordinate corresponding to a position of an input by a distributor;
前記動作情報および前記第1入力座標を送信する送信部と、を備え、a transmission unit that transmits the motion information and the first input coordinates,
前記視聴装置は、The viewing device includes:
前記動作情報および前記第1入力座標を受信する受信部と、a receiving unit that receives the motion information and the first input coordinates;
視聴者の入力の位置に対応する第2入力座標を検出する第2入力検出部と、a second input detection unit that detects second input coordinates corresponding to a position of a viewer's input;
前記視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、a viewing character display unit that displays a moving image of a character on a screen of the viewing device and moves the character in accordance with the action information;
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う所定表示部と、を備え、a predetermined display unit that determines whether the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and performs a predetermined display on a screen of the viewing device when the predetermined positional relationship is satisfied,
前記視聴装置の前記視聴キャラクタ表示部は、視聴者が前記視聴装置の画面において前記キャラクタをタッチしたとき、前記キャラクタのタッチ部位およびタッチ態様の双方または一方に応じて前記キャラクタの反応を変化させることを特徴とするライブ通信システム。A live communication system characterized in that the viewing character display unit of the viewing device changes the reaction of the character depending on both or either of the touched area and touch manner of the character when a viewer touches the character on the screen of the viewing device.
配信者により操作される配信装置と視聴者により操作される視聴装置を含み、A distribution device operated by a distributor and a viewing device operated by a viewer,
前記配信装置は、The distribution device includes:
配信者を撮像する撮像部と、An imaging unit that images a broadcaster;
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、a motion information generating unit that generates motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
配信者の入力の位置に対応する第1入力座標を検出する第1入力検出部と、a first input detection unit that detects a first input coordinate corresponding to a position of an input by a distributor;
前記動作情報および前記第1入力座標を送信する送信部と、を備え、a transmission unit that transmits the motion information and the first input coordinates,
前記視聴装置は、The viewing device includes:
前記動作情報および前記第1入力座標を受信する受信部と、a receiving unit that receives the motion information and the first input coordinates;
視聴者の入力の位置に対応する第2入力座標を検出する第2入力検出部と、a second input detection unit that detects second input coordinates corresponding to a position of a viewer's input;
前記視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、a viewing character display unit that displays a moving image of a character on a screen of the viewing device and moves the character in accordance with the action information;
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う所定表示部と、を備え、a predetermined display unit that determines whether the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and performs a predetermined display on a screen of the viewing device when the predetermined positional relationship is satisfied,
前記視聴装置は、前記キャラクタを介した配信者と視聴者の会話中において、前記キャラクタの所定部位をタッチしたときには、配信者と視聴者の会話時間を短縮する会話管理部、を更に備えることを特徴とするライブ通信システム。The viewing device is a live communication system further characterized in that it includes a conversation management unit that shortens the conversation time between the broadcaster and the viewer when a specified part of the character is touched during a conversation between the broadcaster and the viewer via the character.
配信者により操作される配信装置と視聴者により操作される視聴装置を含み、A distribution device operated by a distributor and a viewing device operated by a viewer,
前記配信装置は、The distribution device includes:
配信者を撮像する撮像部と、An imaging unit that images a broadcaster;
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、a motion information generating unit that generates motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
配信者の入力の位置に対応する第1入力座標を検出する第1入力検出部と、a first input detection unit that detects a first input coordinate corresponding to a position of an input by a distributor;
前記動作情報および前記第1入力座標を送信する送信部と、を備え、a transmission unit that transmits the motion information and the first input coordinates,
前記視聴装置は、The viewing device includes:
前記動作情報および前記第1入力座標を受信する受信部と、a receiving unit that receives the motion information and the first input coordinates;
視聴者の入力の位置に対応する第2入力座標を検出する第2入力検出部と、a second input detection unit that detects second input coordinates corresponding to a position of a viewer's input;
前記視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、a viewing character display unit that displays a moving image of a character on a screen of the viewing device and moves the character in accordance with the action information;
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う所定表示部と、を備え、a predetermined display unit that determines whether the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and performs a predetermined display on a screen of the viewing device when the predetermined positional relationship is satisfied,
前記視聴装置は、The viewing device includes:
視聴者による物理オブジェクトの投入を検出するオブジェクト投入部と、an object insertion unit that detects an insertion of a physical object by a viewer;
前記投入された物理オブジェクトのIDを検出するオブジェクト特定部と、an object identification unit for detecting an ID of the thrown physical object;
前記検出されたIDに対応する仮想オブジェクトを前記視聴装置の画面に表示させるオブジェクト表示部と、を更に備えることを特徴とするライブ通信システム。and an object display unit that displays a virtual object corresponding to the detected ID on a screen of the viewing device.
前記視聴装置の前記所定表示部は、前記第1入力座標と前記第2入力座標の距離が第1の閾値以内であるとき、前記所定位置関係を満たすと判定することを特徴とする請求項1から6のいずれかに記載のライブ通信システム。 A live communication system as described in any one of claims 1 to 6, characterized in that the specified display unit of the viewing device determines that the specified positional relationship is satisfied when the distance between the first input coordinate and the second input coordinate is within a first threshold value. 配信者を撮像する機能と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する機能と、
配信者の入力の位置に対応する第1入力座標を検出する機能と、
前記動作情報および前記第1入力座標を送信する機能と、を配信装置において発揮させる第1のプログラムと、
前記動作情報および前記第1入力座標を受信する機能と、
視聴者の入力の位置に対応する第2入力座標を検出する機能と、
視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる機能と、
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う機能と、を視聴装置において発揮させる第2のプログラムと、を含み、
前記所定表示を行う機能は、前記配信者及び前記視聴者の双方の入力が維持されている状態にあるときのみ、前記所定位置関係を満たすか否かを判定することを特徴とするライブ通信プログラム。
The function of capturing images of the broadcaster,
A function of generating motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
A function of detecting a first input coordinate corresponding to a position of an input by a distributor;
a first program causing a distribution device to perform a function of transmitting the motion information and the first input coordinates;
receiving the motion information and the first input coordinate;
detecting a second input coordinate corresponding to a position of the viewer's input;
a function of displaying a moving image of a character on a screen of a viewing device and moving the character in accordance with the motion information;
a second program for causing the viewing device to perform a function of determining whether or not the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and, if the predetermined positional relationship is satisfied, performing a predetermined display on a screen of the viewing device ;
A live communication program characterized in that the function of performing the specified display determines whether the specified positional relationship is satisfied only when input from both the distributor and the viewer is maintained .
配信者を撮像する機能と、The function of capturing images of the broadcaster,
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する機能と、A function of generating motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
配信者の入力の位置に対応する第1入力座標を検出する機能と、A function of detecting a first input coordinate corresponding to a position of an input by a distributor;
前記動作情報および前記第1入力座標を送信する機能と、を配信装置において発揮させる第1のプログラムと、a first program causing a distribution device to perform a function of transmitting the motion information and the first input coordinates;
前記動作情報および前記第1入力座標を受信する機能と、receiving the motion information and the first input coordinate;
視聴者の入力の位置に対応する第2入力座標を検出する機能と、detecting a second input coordinate corresponding to a position of the viewer's input;
視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる機能と、a function of displaying a moving image of a character on a screen of a viewing device and moving the character in accordance with the motion information;
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う機能と、を視聴装置において発揮させる第2のプログラムと、を含み、a second program for causing the viewing device to perform a function of determining whether or not the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and, if the predetermined positional relationship is satisfied, performing a predetermined display on a screen of the viewing device;
前記所定表示を行う機能は、前記所定表示の開始後、前記第1入力座標および前記第2入力座標が前記所定位置関係を満たさなくなったとき前記所定表示を解消することを特徴とするライブ通信プログラム。A live communication program characterized in that the function of performing the specified display cancels the specified display when the first input coordinate and the second input coordinate no longer satisfy the specified positional relationship after the specified display has started.
配信者を撮像する機能と、The function of capturing images of the broadcaster,
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する機能と、A function of generating motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
配信者の入力の位置に対応する第1入力座標を検出する機能と、A function of detecting a first input coordinate corresponding to a position of an input by a distributor;
前記動作情報および前記第1入力座標を送信する機能と、を配信装置において発揮させる第1のプログラムと、a first program causing a distribution device to perform a function of transmitting the motion information and the first input coordinates;
前記動作情報および前記第1入力座標を受信する機能と、receiving the motion information and the first input coordinate;
視聴者の入力の位置に対応する第2入力座標を検出する機能と、detecting a second input coordinate corresponding to a position of the viewer's input;
視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる機能と、a function of displaying a moving image of a character on a screen of a viewing device and moving the character in accordance with the motion information;
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う機能と、を視聴装置において発揮させる第2のプログラムと、を含み、a second program for causing the viewing device to perform a function of determining whether or not the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and, if the predetermined positional relationship is satisfied, performing a predetermined display on a screen of the viewing device;
前記第1入力座標を検出する機能は、前記配信装置の画面に配信者がタッチしたときのタッチ地点に基づいて前記第1入力座標を検出し、the function of detecting the first input coordinates detects the first input coordinates based on a touch point when a broadcaster touches a screen of the broadcasting device;
前記第2入力座標を検出する機能は、前記視聴装置の画面に視聴者がタッチしたときのタッチ地点に基づいて前記第2入力座標を検出することを特徴とするライブ通信プログラム。A live communication program, characterized in that the function of detecting the second input coordinates detects the second input coordinates based on a touch point when a viewer touches the screen of the viewing device.
配信者を撮像する機能と、The function of capturing images of the broadcaster,
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する機能と、A function of generating motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
配信者の入力の位置に対応する第1入力座標を検出する機能と、A function of detecting a first input coordinate corresponding to a position of an input by a distributor;
前記動作情報および前記第1入力座標を送信する機能と、を配信装置において発揮させる第1のプログラムと、a first program causing a distribution device to perform a function of transmitting the motion information and the first input coordinates;
前記動作情報および前記第1入力座標を受信する機能と、receiving the motion information and the first input coordinate;
視聴者の入力の位置に対応する第2入力座標を検出する機能と、detecting a second input coordinate corresponding to a position of the viewer's input;
視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる機能と、a function of displaying a moving image of a character on a screen of a viewing device and moving the character in accordance with the motion information;
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う機能と、を視聴装置において発揮させる第2のプログラムと、を含み、a second program for causing the viewing device to perform a function of determining whether or not the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and, if the predetermined positional relationship is satisfied, performing a predetermined display on a screen of the viewing device;
前記キャラクタを動作させる機能は、視聴者が前記視聴装置の画面において前記キャラクタをタッチしたとき、前記キャラクタのタッチ部位およびタッチ態様の双方または一方に応じて前記キャラクタの反応を変化させることを特徴とするライブ通信プログラム。A live communication program characterized in that the function of moving the character changes the reaction of the character depending on both or either of the touched part and the touch manner of the character when a viewer touches the character on the screen of the viewing device.
配信者を撮像する機能と、The function of capturing images of the broadcaster,
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する機能と、A function of generating motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
配信者の入力の位置に対応する第1入力座標を検出する機能と、A function of detecting a first input coordinate corresponding to a position of an input by a distributor;
前記動作情報および前記第1入力座標を送信する機能と、を配信装置において発揮させる第1のプログラムと、a first program causing a distribution device to perform a function of transmitting the motion information and the first input coordinates;
前記動作情報および前記第1入力座標を受信する機能と、receiving the motion information and the first input coordinate;
視聴者の入力の位置に対応する第2入力座標を検出する機能と、detecting a second input coordinate corresponding to a position of the viewer's input;
視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる機能と、a function of displaying a moving image of a character on a screen of a viewing device and moving the character in accordance with the motion information;
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う機能と、を視聴装置において発揮させる第2のプログラムと、を含み、a second program for causing the viewing device to perform a function of determining whether or not the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and, if the predetermined positional relationship is satisfied, performing a predetermined display on a screen of the viewing device;
前記第2のプログラムは、前記キャラクタを介した配信者と視聴者の会話中において、前記キャラクタの所定部位をタッチしたときには、配信者と視聴者の会話時間を短縮する機能を視聴装置において更に発揮させることを特徴とするライブ通信プログラム。The second program is a live communication program that further causes the viewing device to exhibit a function of shortening the conversation time between the broadcaster and the viewer when a specified part of the character is touched during a conversation between the broadcaster and the viewer via the character.
配信者を撮像する機能と、The function of capturing images of the broadcaster,
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する機能と、A function of generating motion information indicating characteristics of the motion of the distributor from a captured image of the distributor;
配信者の入力の位置に対応する第1入力座標を検出する機能と、A function of detecting a first input coordinate corresponding to a position of an input by a distributor;
前記動作情報および前記第1入力座標を送信する機能と、を配信装置において発揮させる第1のプログラムと、a first program causing a distribution device to perform a function of transmitting the motion information and the first input coordinates;
前記動作情報および前記第1入力座標を受信する機能と、receiving the motion information and the first input coordinate;
視聴者の入力の位置に対応する第2入力座標を検出する機能と、detecting a second input coordinate corresponding to a position of the viewer's input;
視聴装置の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる機能と、a function of displaying a moving image of a character on a screen of a viewing device and moving the character in accordance with the motion information;
前記第1入力座標および前記第2入力座標が所定位置関係を満たすか否かを判定し、前記所定位置関係を満たす場合に、前記視聴装置の画面において所定表示を行う機能と、を視聴装置において発揮させる第2のプログラムと、を含み、a second program for causing the viewing device to perform a function of determining whether or not the first input coordinates and the second input coordinates satisfy a predetermined positional relationship, and, if the predetermined positional relationship is satisfied, performing a predetermined display on a screen of the viewing device;
前記第2のプログラムは、The second program is
視聴者による物理オブジェクトの投入を検出する機能と、A function to detect the insertion of physical objects by viewers;
前記投入された物理オブジェクトのIDを検出する機能と、detecting an ID of the inserted physical object;
前記検出されたIDに対応する仮想オブジェクトを前記視聴装置の画面に表示させる機能と、を視聴装置において更に発揮させることを特徴とするライブ通信プログラム。and a function of displaying a virtual object corresponding to the detected ID on a screen of the viewing device.
JP2023100943A 2019-08-01 2023-06-20 Live communication system using characters Active JP7584576B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023100943A JP7584576B2 (en) 2019-08-01 2023-06-20 Live communication system using characters

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019141981A JP7300925B2 (en) 2019-08-01 2019-08-01 Live communication system with characters
JP2023100943A JP7584576B2 (en) 2019-08-01 2023-06-20 Live communication system using characters

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019141981A Division JP7300925B2 (en) 2019-08-01 2019-08-01 Live communication system with characters

Publications (2)

Publication Number Publication Date
JP2023126237A JP2023126237A (en) 2023-09-07
JP7584576B2 true JP7584576B2 (en) 2024-11-15

Family

ID=74664121

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019141981A Active JP7300925B2 (en) 2019-08-01 2019-08-01 Live communication system with characters
JP2023100943A Active JP7584576B2 (en) 2019-08-01 2023-06-20 Live communication system using characters

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019141981A Active JP7300925B2 (en) 2019-08-01 2019-08-01 Live communication system with characters

Country Status (1)

Country Link
JP (2) JP7300925B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115469735A (en) * 2021-05-28 2022-12-13 北京字节跳动网络技术有限公司 Gesture-based interaction method, device and client
JP7012979B1 (en) * 2021-07-21 2022-01-31 株式会社WithLIVE Programs and information processing equipment
JP2023173388A (en) * 2022-05-25 2023-12-07 株式会社 ディー・エヌ・エー Systems, methods, and programs for providing live streaming services
JP7335572B1 (en) * 2022-09-30 2023-08-30 グリー株式会社 Information processing system, control method, and server device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160154A (en) 1999-12-02 2001-06-12 Nippon Telegr & Teleph Corp <Ntt> Avatar display device, avatar display method, and storage medium in virtual space communication system
JP2016212564A (en) 2015-05-01 2016-12-15 日本電信電話株式会社 Social touch control device
JP2018032384A (en) 2017-07-18 2018-03-01 株式会社コロプラ Method and device for assisting communication in virtual space and program enabling computer to execute method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6342024B1 (en) 2017-02-10 2018-06-13 株式会社コロプラ Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP6543403B1 (en) 2018-12-12 2019-07-10 グリー株式会社 Video distribution system, video distribution method and video distribution program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160154A (en) 1999-12-02 2001-06-12 Nippon Telegr & Teleph Corp <Ntt> Avatar display device, avatar display method, and storage medium in virtual space communication system
JP2016212564A (en) 2015-05-01 2016-12-15 日本電信電話株式会社 Social touch control device
JP2018032384A (en) 2017-07-18 2018-03-01 株式会社コロプラ Method and device for assisting communication in virtual space and program enabling computer to execute method

Also Published As

Publication number Publication date
JP2021027420A (en) 2021-02-22
JP7300925B2 (en) 2023-06-30
JP2023126237A (en) 2023-09-07

Similar Documents

Publication Publication Date Title
JP7584576B2 (en) Live communication system using characters
JP7389855B2 (en) Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users
JP7489642B2 (en) PROGRAM, OBJECT DRAWING METHOD AND INFORMATION PROCESSING SYSTEM
WO2019234879A1 (en) Information processing system, information processing method and computer program
JP2018094326A (en) Event control system, and event notification system and program
JP2020039029A (en) Video distribution system, video distribution method, and video distribution program
JP7379427B2 (en) Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users
JP7264941B2 (en) Program, information processing device and information processing method
CN116097292A (en) Influencer flow customization for a viewer of interest
US20160320833A1 (en) Location-based system for sharing augmented reality content
JP2025176097A (en) Information processing system, information processing method and information processing program
JP7479618B2 (en) Information processing program, information processing method, and information processing device
JP6979539B2 (en) Information processing system, display method and computer program
JP2021007198A (en) Video distribution system, video distribution method, information processing device, video distribution program and video viewing program
KR20200041839A (en) Method for providing virtual reality userinterface for viewing broadcastand apparatus using the same
CN116438801A (en) Information processing device, information processing method, program, and information processing system
JP2024133362A (en) Live communication system using characters
JP7709706B2 (en) PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING SYSTEM
JP7333528B2 (en) Program, information processing method and information processing apparatus
KR102082670B1 (en) Method for providing virtual reality userinterface for viewing broadcastand apparatus using the same
JP7691073B2 (en) Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
CN105516785A (en) Communication system, communication method and server for transmitting human-shaped doll image or video
US20250030924A1 (en) Information processing system and information processing method
CN116457750A (en) Information processing device, information processing method, program, and information processing system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230719

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241105

R150 Certificate of patent or registration of utility model

Ref document number: 7584576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150