先日、ChatGPTの安定版がリリースされました(2月13日)。
ChatGPTは昨年公開されて大きな話題になりましたので、ご存知の方も多いのではないでしょうか。
そんなChatGPTを触っていていろいろと考えることがありましたので、今回の安定版公開を機にそのさわりをお話しようと思います。
ChatGPTとは、ウィンドウに会話形式のテキスト(例「〇〇について教えてください」等)を入力すると、それに対する答えを返してくるAIを利用したサービスです(あまりに大雑把すぎて、自分で読み返してもツッコミどころ満載な説明です)。
もうちょっとだけ付け加えると、ChatGPTは質問に答えるだけでなく、翻訳や、入力した文章を指定した文字数で要約したり、簡単なプロットから小説を書いたりすることなど、さまざまなことができます。
ChatGPTに「社会福祉士の倫理について教えて」と入力すると、次のような回答が表示されます。
”社会福祉士の倫理とは、社会福祉士が守るべき倫理的原則です。特に、その仕事においてクライエントの尊厳を尊重し、公正かつ無私に仕事をし、クライエントとの関係を大切にすることが重要です。また、専門的な知識や技能を持ち、法律や社会福祉に関わるガイドラインを守ることも大切です。また、クライエントのプライバシーを尊重し、クライエントを尊重した上で業務を行うことも重要です。“
まあ、そのとおりでしょう(お、おう)。こういう文章を生成してきます。
その内容もそうですが、人間が読んで違和感の少ない文章になっていることにもご注目ください。これがChatGPTの特徴のひとつです。
こうした特徴もあって、今後ChatGPTは、レポートや議事録の作成、文章のチェックや校正にどんどん活用されるようになると思います。
私が個人的に期待しているのは、音声から自動で起こした文字原稿のケバ取りをやってくれることですが、これについてはまた改めて書きます。
しかし、いいことばかりではありません。
ChatGPTは、今のところ入力された問いに必ずしも正確な回答を返すわけではありません。だから”知らないことを検索しているのに、回答を検証する知識が必要になる”というパラドックスが生じます。これはインターネットで調べものをするときにも起っている問題がChatGPTでも起こっているということに過ぎないのかもしれません。もっとも、この問題は今後ChatGPTが賢くなっていくにつれて軽減されるのではないかと思います。
さて、ここまで長い前振りでしたが、本題に入ります。
ソーシャルワーカーがChatGPTを利用してクライエントの課題を解決しようとする場合には、これとは異なる問題が生じる懸念があります。それは、予期せぬクライエントの情報流出が起こりうることです。
ChatGPTから実際の支援に利用できる具体的な回答を引き出そうとすれば、得たい回答に応じてケースの情報や課題を詳細に入力する必要があります
詳細な情報とは、たとえば、クライエントの年齢、性別、障害や介護の状態、家族に関することなどです。
また、社会福祉には自治体や団体固有のサービスが数多くあります。そうしたことについても回答を得たい場合は、クライエントが居住する地域などについても具体的に入力することになるでしょう。
懸念とは、ChatGPTがこうしたプライバシーに関する情報の保護について充分配慮していない可能性があることです。
ChatGPTにその配慮がまったく無いか不充分な状態でソーシャルワーカーがクライエントのプライバシーに関する情報を入力すれば、それがChatGPTの学習のために利用され、別の思わぬところで出力されてしまうかもしれません。
これはChatGPTが転移学習(ある問題を解決する際に得た知識を蓄積し、関連する別の問題にそれを適用する機械学習の仕組み)を行うため、構造的に避けがたいようです。
この問題を回避するには、ChatGPTの処理プロセスに、個人情報やプライバシーに関する情報をフィルタリングする機能を付加するなどの手立てを講じる必要があります。しかし、それが現在のChatGPTに実装されているかどうかはわかりません(ヘイトなど公序良俗に反することについては一定の規制があるようです)。
もし、すでにこうした機能が実装されていたとしても、ソーシャルワークに利用できるような高い次元の個人情報やプライバシーに関する情報の保護が実現されているか否かは、別に検証する必要があると思います。
私たちソーシャルワーカーに当面できる対策は、ChatGPTを利用する時にそうした情報を入力しないことだと思います。
実はさほど気にすることはないのかもしれませんが、多くの人が言うように情報は漏洩すると取り返しがつきません。今は、慣れ親しんだGoogle検索を使う時とは違う配慮をした方がよさそうです。
ChatGPTとそこで使われている技術は、とても有効で魅力的です。
この技術は、今後のコンピューティングを大きく変える可能性があります。
たとえば、今、Googleで検索する時は単語を入力しています。それがChatGPTでは質問は平文で入力できて、回答もレポート形式で返ってきます。
これまでも使いやすいもの、より人間の感覚に近いものはあっという間に普及してきました。
すべての人にとって、平文で入力できて、回答もレポート形式で返ってくるのが当たり前になるのはもうすぐかもしれません。
この一点を取っても、めちゃくちゃ期待できますよね。
マイクロソフトは、エクセルにこうした仕組みを組み込むことを考えているようです。そうすれば魔法の呪文のような関数は覚えなくてもよくなります(たとえば、これまで関数で”=AVERAGE(A1:A20)”と入力していたものが「このセルからあのセルまでを平均して」という感じでOKになるようです)。
今、私たちの目の前では、何年かに1度の大きな変化が起こりつつあります。
なんてすばらしいことでしょう。
一方で、上でお話したように私たちはこの変化に適合した個人情報やプライバシーに関する情報の保護の方法を学ぶ必要が出てきました。
功罪相半ばするといったところでしょうか。
最後に少しChatGPからは離れますが、これ以外にAIがらみで懸念されるのは、チャットボットによるフィッシング詐欺です。
今もチャットで相手のIDやパスワードを聞き出し、アカウントを乗っ取るフィッシング詐欺が横行しています。しかし、今のところこのやり取りはほとんど場合人間対人間で行われていますので、おのずから詐欺行為が仕掛けられる数には限界があります。
しかし、この技術を使ってチャットが自動化されると、疲れを知らない詐欺師たちがマシンのように(失礼。本当にマシンでした)フィッシングしまくることになります。
こうしたテクノロジーの変化やそこでクライエントに起こる可能性がある悪影響を想像すると、ソーシャルワーカーは、デジタルは得意じゃない、知らなかった、と言って済まされる仕事ではなくなったなあと改めて思います。
これらの問題は、引き続きフォローアップしていこうと思います。