「最近、新たなオレオレ詐欺が起こる兆しがある!」それはAIの急速な進歩で人の音声が正確にコピーできるようになり、他人になりすまし会話することが可能となったからだ。電話で話せば音声では全く区別できないので、旦那になりすまし奥さんをだますことも出来るらしい。オレオレと言わなくても普通に話せば簡単に金の請求が可能だという。
何しろ声紋が同じなので、音声入力のセキュリティさえ突破できる。ぼーっとしていると声だけの仮想の女房に騙され、身ぐるみ剝がされることもある。でも音声さえ録音しておけば、亡くなった旦那の声に変換して会話することも出来るので、寂しがり屋の未亡人などには朗報かもしれないね。
でも実際には「せっかくヒトリになれたのに今さら旦那の声、冗談じゃない!」という奥さんが多いと思う。ある統計によると熟年夫婦に「もう一度結婚するとしたら同じ人を選びますか?」の問いに過半数の男性は「イエス」だが、女性のほとんどは「ノウ」であるという。女性の方が歴史的に長く束縛されてきたぶん、自由を求める感情は強いらしい。
ところで音声入力と言えばとりあえず今はアマゾンのアレクサだ。ベットの中から「アレクサ、おやすみ」の声掛けで電気を消してくれたり、「アレクサ、今日の予定は」で大切な用事を教えてくれたりといろいろ便利らしい。しかしオウムやインコを飼っている家は注意しないとね!彼らが勝手にアレクサにネット経由で買い物の指示を出し、覚えのない物品がピンポンと宅配されるという。
アレクサに様々な人の声に変換できる機能をつけたらどうだろう?単身赴任の時などは、奥さんの声に変換すれば気持ち休まるかもね。でも男性だって奥さんの声より、色っぽいマリリンの声の方がよいにきまってる・・・。(冗談はともかく、新手のオレオレ詐欺には注意してください。勝田陶人舎・冨岡伸一)