網頁

2023-04-20

數位發展部準備好了? ChatGPT洩露機密

【縛雞之論】英文拷到 G / D 找中文翻譯
Taiwan established a new Ministry of Digital Affairs on August 27, 2022. I wonder what its views are and what has been done on the issue of ChatGPT and confidentiality, including issues related to national security, correctional matters, and personal information.
Employees are using ChatGPT to improve their daily work, which is a good thing. However, the more data they input, the better job ChatGPT can do in responding. This poses a risk of leaking business secrets to ChatGPT. That might be a bad thing.
This reminds us of the potential risk if public servants use ChatGPT to deal with national security issues or process personal data that must be kept confidential.
The data that should be kept secret could certainly be leaked. It doesn't have to be ChatGPT itself that causes the leak; any user who asks smart questions could have the chance to acquire the same confidential information.
To ask or not to ask is the question.

台灣於2022827日成立新的數位部,不知道對於ChatGPT與保密的問題,包括國家安全、矯正事項、個人資料等問題,有什麼看法,做了什麼。
員工正在使用 ChatGPT 來改進他們的日常工作,這是一件好事。 但是,他們輸入的數據越多,ChatGPT 的響應就越好。 這會帶來向 ChatGPT 洩露商業機密的風險。 那可能是一件壞事。
這提醒我們,如果公務員使用 ChatGPT 處理國家安全問題或處理必須保密的個人數據,可能存在風險。
應該保密的數據肯定會洩露。 導致洩漏的不一定是 ChatGPT 本身; 任何提出巧妙問題的用戶都有機會獲得相同的機密信息。
問還是不問,這是個問題。

社員が機密情報をChatGPTに入力、上司の知らぬ間に漏洩も 生成AIの安全対策は可能?〈dot.    AERA 20230420

 プライバシー侵害、企業秘密漏洩、雇用喪失、サイバー犯罪、そして制御不能な進化。米企業オープンAIが開発した対話型AI(人工知能)「ChatGPT(チャットGPT)」には、備えるべき大きなリスクがある――そんな指摘が世界で相次いでいる。チャットGPTなどのAIは、ネット上の大量のデータやユーザーの利用データを基に学習している。そこには個人データや企業秘密も含まれる。だが、その対策と効果には、疑問の声が上がる。チャットGPTは、人間的で自然な会話や文章、さらにプログラムも作成し、さまざまな作業を効率化できる。それは、職場でのリストラやサイバー犯罪のリスクとも裏腹の関係だ。そして何より、急速なAIの進化は、人間が制御できなくなることへの不安をかき立てる。チャットGPTのリスクに向き合っていく。そのために、備えておくべきこととは?(桜美林大学教授 平和博 AI開発の一時停止を訴えたイーロン・マスク氏】

*  *  * ■プライバシー侵害を懸念 「欧州データ保護会議(EDPB)メンバーは、イタリアの個人データ保護庁がオープンAIに対して行った、チャットGPTサービスに関する先日の強制措置について議論した。EDPBは、今後想定されるデータ保護当局による強制措置について、協力と情報交換を促進するため、専用のタスクフォースを立ち上げることを決定した」

 欧州連合EU)のデータ保護政策を統括するEDPB413日付のプレスリリースで、そう述べている。

 イタリアの個人データ保護庁は331日に、チャットGPTを開発しているオープンAIに対して、イタリアのユーザーのデータ処理を直ちに一時停止するよう命じ、チャットGPTへの調査開始を発表していた。

 命令の根拠としたのは、2018年からEUで施行されている、強力な個人データ保護法、一般データ保護規則(GDPR)だ。EDPBの動きは、この問題について、イタリアだけでなくEU全体で検討を進める、と表明したものだ。

 イタリアの個人データ保護庁は、オープンAIへの一時停止命令について、プレスリリースでこう説明していた。

「命令では、オープンAIがユーザーとデータ主体のデータを収集しながら、それについての情報が提供されていないことに注目している。さらに重要なのは、このプラットフォームの基盤であるアルゴリズムの『学習』のために大量の個人データを収集・処理していることについて、それを正当化できる法的根拠が見当たらないことだ

 チャットGPTは、その大規模言語モデル(LLM)のために、膨大なネット上のデータを学習させている。最新版のGPT4については非公開だが、前身のGPT3では、主な学習データ量は570ギガバイト(半角英数字で5700億字分)に上る。また、ユーザーがチャットGPTに入力した指示文(プロンプト)なども、一部の有料サービスを除き(※詳細は後述)、学習データに組み込まれる。オープンAIは、学習データに個人データが含まれる場合があることを認めており、可能な場合には個人データを削除する、としているが、詳細は不明だ。

 同庁は、これらのデータの収集と処理を問題視した。オープンAI45日、チャットGPTからの個人データ削除の取り組みなどを表明。しかしイタリア当局は12日、オープンAIに対して、データ処理に関する情報開示などの必要な措置を同月末までに取るよう指示した、と発表している。

 イタリアによる一時停止命令のきっかけとなったのは、320日に発覚したチャットGPTの不具合だ。

 他人のチャット履歴のタイトルが表示された、との報告がソーシャルメディア上に相次いで投稿された。さらにオープンAIによる調査の結果、同じ不具合によって、有料のチャットGPTプラスのユーザーの1.2%で、氏名、メールアドレス、住所、クレジットカード番号の下4桁と有効期限が、9時間にわたって他のユーザーに表示された可能性があった、という。

 GDPR違反への制裁金は、最大で2000万ユーロ(約29億円)か前年度の世界の売上高の4%の、いずれか高いほうを科される。

 EUではイタリアに続き、スペインのデータ保護庁も413日に調査開始を表明。アイルランドやフランス、ドイツのデータ保護当局も検討を始めたと報じられている。GDPRと同様の法律を持つ英国の情報コミッショナー・オフィス(ICO43日付の公式ブログで、チャットGPTなどの生成AIのプライバシー問題への懸念を表明している。

 EUでは、AI規制法の草案を20214月に公開し、現在も検討中だ。制裁金はGDPRを上回り、最大で3000万ユーロ(約44億円)か世界の売上高の6%の、どちらか高いほうを科されることになる。

 懸念は欧州に止まらない。カナダのプライバシー・コミッショナー・オフィス(OPC)も44日、チャットGPTを運営するオープンAIに対する調査を始めたことを明らかにしている。「同意のない個人情報の収集、利用、開示についての申し立てを受けたもの」と同オフィスは説明している。

■企業秘密が漏れる

 プライバシー以外にも、データをめぐるリスクはある。企業秘密の漏洩も、重大リスクの一つだ。上述のように、チャットGPTはユーザーの利用データを、AIの学習に取り込んでいるためだ。

 米ウェブメディア、インサイダーの125日付の報道によると、アマゾンでは昨年12月、顧問弁護士から社員に対して、社内の機密情報をチャットGPTに入力しないよう警告を出したという。警告の中で弁護士は、すでにチャットGPTの回答と社内情報がほぼ一致する事例があったという。

 オープンAI31日から、外部ソフトをチャットGPTに連携させることができるAPI(アプリケーション・プログラミング・インターフェース)の提供を有料で開始した。チャットGPTを使った企業の連携サービス開発などを想定する。オープンAIは、このAPI経由で入力されたデータはチャットGPTの学習などには使わない、と説明している。一方で、それ以前に入力されたデータは、学習に使われた可能性があると述べている。

 社内情報をチャットGPTに入力する社員がどれぐらいいるのか。

 米シリコンバレーのセキュリティーベンチャー「サイバーヘイブン」が321日に更新した調査結果によると、顧客企業(社員数合計160万人)のナレッジワーカー(知識労働者)のうち8.2%が職場でチャットGPTを利用したことがあり社員の3.1%が機密情報をチャットGPTに入力したことがあったという。

 さらに、2月末からの1週間の状況を調べたところ、社員10万人当たりで社外秘の文書の入力が199回、顧客データの入力が173回、プログラムのソースコードの入力が159回、確認できたという。

 また、プロフェッショナル向けソーシャルメディア「フィッシュボウル」が21日に公表したユーザー調査では、チャットGPTなどのAIツールを職場で使っていた回答者のうち、68%は「上司はそのことを知らない」としていた。

 ただ、当初はチャットGPTなどの業務での利用を禁止していた企業が、安全対策を取ったうえで活用に乗り出す動きもある。

 日本経済新聞の411日付の報道によれば、三菱UFJフィナンシャル・グループFG)、三井住友FG、みずほFGは、いずれも日本マイクロソフトの協力を得て、独自開発を含むチャットAIの導入を表明している。

 いち早く情報漏洩を警戒したアマゾンも13日、クラウドサービスのAWS上でチャットAIに対応するAIサービス「アマゾン・ベッドロック」を提供する、と発表した。

■効率化の影響を受ける職業

 雇用へのインパクトも懸念されている。

 オープンAIは、ペンシルベニア大学との共同研究で、労働市場への影響を調査し、327日付で公表した。調査結果では、米国の約80%の労働者は、チャットGPTなどの導入によって少なくとも仕事の10%に影響を受ける可能性があり、約19%の労働者は影響の割合が少なくとも仕事の50%に上るとした。

 AIは、思考はできないが、ある程度手順の決まった作業の自動化、高速化はずば抜けている。そのため、仕事の内容によって影響の濃淡もある。調査によると、科学的スキル、批判的思考(クリティカル・シンキング)のスキルは影響を受けにくい一方で、プログラミングやライティング(文章作成)のスキルは極めて影響を受けやすい、という。

 共同研究では、チャットGPTおよびそれを組み込んだソフトによる効率化の影響を受ける職種について、人間による評価とGPT4を使った評価を行っている。

 それによると、全面的に影響を受ける職種として、人間による評価では数学者、税理士、財務定量アナリスト、ライター・作家、ウェブとデジタルインターフェイスのデザイナーなど15職種が、GPT4による評価では会計士・監査人、ニュースアナリスト・記者・ジャーナリスト、弁護士秘書・事務スタッフ、臨床データマネジャー、気候変動政策アナリストなど86職種が挙げられたという。

 その一方、調査では、身体活動が主となる、アスリートや料理人、電線設置・修理工などの34職種については、影響を受ける要素はないとしている

 金融大手のゴールドマン・サックスも326日付で、生成AIによる影響をまとめたリポートを発表した。欧米のデータを基に、現在の職業の3分の2は、生成AIによって部分的に自動化される可能性があると指摘。自動化の可能性が高い職種として、オフィス・事務サポート、法務、建築・エンジニアリングなどを挙げている。

<<後編:ChatGPTに潜む5大リスクと開発競争の行方 AIが原理的に理解できない「人間らしさ」とは?>>に続く

平 和博(たいら・かずひろ)/早稲田大学卒業後、1986年、朝日新聞社入社。社会部、シリコンバレー(サンノゼ)駐在、科学グループデスク、編集委員、IT専門記者(デジタルウオッチャー)などを担当。20194月から桜美林大学リベラルアーツ学群 教授(メディア・ジャーナリズム)。主な著書に『悪のAI論 あなたはここまで支配されている』『信じてはいけない 民主主義を壊すフェイクニュースの正体』(いずれも朝日新書)などがある


沒有留言:

張貼留言

請網友務必留下一致且可辨識的稱謂
顧及閱讀舒適性,段與段間請空一行