人工知能と精神医学の未来:世界の医師調査からの洞察
P. Murali Doraiswamy1,2, Charlotte Blease,3, Kaylee Bodner1
概要
背景:未来学者は、人工知能(AI)と機械学習(ML)が組み込まれた新しい自律技術が、多くの分野で大幅な雇用喪失につながり、医療の多くの側面を混乱させると予測しています。メンタルヘルスは、世界的な疾病の負担、スティグマ、医療従事者の不足を考えると、このような混乱の機が熟しているように思われます。
目的:メンタルヘルスの実践で実行される重要なタスクを置き換える将来の自律技術(ここではAI / MLと呼ばれる)の可能性に関する世界の精神科医コミュニティの意見を特徴付けること。
デザイン:検証済みで認可された医師に開かれたグローバルネットワーキングプラットフォームであるSermoに登録されている精神科医の横断的で無作為な層別サンプル。
主なアウトカム指標:AI/MLツールが、平均的な精神科医が10の主要な精神医学的課題を遂行する際に、支援するだけでなく、完全に取って代わることができる可能性について意見を測定した。代替の可能性を検討している人の中で、今から何年後にそのような能力が出現するかについての意見を測定しました。また、AI/MLのメリットがリスクを上回るかどうかについて、精神科医の認識も測定しました。
結果:調査回答者は、北米、南米、ヨーロッパ、アジア太平洋を代表する22カ国の791人の精神科医でした。回答者のわずか3.8%が、将来のテクノロジーによって自分の仕事が時代遅れになる可能性が高いと感じており、将来のAI/MLが共感的なケアを提供する人間の臨床医に取って代わる可能性が高いと感じているのはわずか17%でした。医療記録の文書化と更新(75%)と情報の統合(54%)は、AI/MLが人間の精神科医に完全に取って代わることができると大多数が予測した2つのタスクでした。米国を拠点とする女性医師と米国を拠点とする医師は、それぞれ男性医師と非米国医師よりも、AIの利益がリスクを上回るかどうか確信が持てませんでした。しかし、精神科医の約2人に1人は、AI/MLによって自分の仕事が大きく変わると予測しています。
結論:私たちの知る限り、自律型AI/MLが精神医学の将来に与える影響について医師の意見を求めた最初のグローバル調査です。私たちの調査結果は、医師がAI/MLについてどのように考えているかについての説得力のある洞察を提供し、テクノロジーをより適切に統合し、医師を再教育してメンタルヘルスケアを強化するのに役立つ可能性があります。
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
はじめにメンタルヘルス障害は、人口の10〜15%に影響を与えると推定されており、世界中の罹患率と死亡率の主要な原因の1つです(1、2)。2030年までに、この健康被害は世界経済に約16兆ドルのコストがかかると予測されています(1)。自殺は、ほとんどの国で若者の死因の第2位または第3位です(1)。また、高齢化に伴う精神疾患も増加傾向にあり、認知症の人の数は今後数十年で3倍になると予想されています。スティグマ、資金不足、メンタルヘルス専門家の深刻な不足(1、2)は、世界的なメンタルヘルスのニーズに対処する上での主要な障壁の一部です。米国では、ある推計によると、77%の郡で精神科医の診察が十分に受けられていません(3)。発展途上国では状況はさらに悪く、世界保健機関(WHO)は、低所得国の精神科医の割合は高所得国の約100分の1であると推定しています(2)。人口13億人のインドには、約9,000人の精神科医しかいません(4)。これらの診断と治療の大きなギャップに対処することは、世界的な公衆衛生の優先事項です(1、2)。これらの課題に対して、スマートフォン、ウェアラブルセンサー、クラウドベースのコンピューティング、インテリジェントテクノロジーの急速な普及により、患者の自己モニタリングと医療へのアクセスの拡大のための前例のない機会がもたらされ、何百万人もの人々がすでにそのようなテクノロジーに目を向けています(1、5-15)。ディープラーニングの急速な進歩により、一部の専門家は、AIが医療と医師の仕事を破壊する態勢を整えていると予測しています(6、11、9でレビュー)。ディープラーニングシステムは、制御された設定の下で、診断精度において放射線科医や病理医に匹敵するか、それを上回る性能を発揮しています(9)。実際、テクノロジーの未来学者の中には、AI/MLの進歩により、いつの日か医師の必要性が完全になくなるかもしれないと主張する人もいます(7、11)。他の情報学者やAI専門家はそれほど楽観的ではなく、医師の役割に完全に取って代わられることはなく、医療の未来は人間と機械の間の「チームスポーツ」になる可能性が高いと予測しています(10、13)。後者の見解と一致して、オックスフォード大学の労働市場報告書は、今後20年間に米国の総雇用の47%がインテリジェントテクノロジーによる代替のリスクにさらされる一方で、医師が行う仕事は自動化のリスクが低くなると予測しています(16)。この見解は、30カ国以上の技能データを調べた経済協力開発局(Office of Economic Cooperation and Development)の最近のワーキングペーパー(17)の著者によっても共有されています。
はじめにメンタルヘルス障害は、人口の10〜15%に影響を与えると推定されており、世界中の罹患率と死亡率の主要な原因の1つです(1、2)。2030年までに、この健康被害は世界経済に約16兆ドルのコストがかかると予測されています(1)。自殺は、ほとんどの国で若者の死因の第2位または第3位です(1)。また、高齢化に伴う精神疾患も増加傾向にあり、認知症の人の数は今後数十年で3倍になると予想されています。スティグマ、資金不足、メンタルヘルス専門家の深刻な不足(1、2)は、世界的なメンタルヘルスのニーズに対処する上での主要な障壁の一部です。米国では、ある推計によると、77%の郡で精神科医の診察が十分に受けられていません(3)。発展途上国では状況はさらに悪く、世界保健機関(WHO)は、低所得国の精神科医の割合は高所得国の約100分の1であると推定しています(2)。人口13億人のインドには、約9,000人の精神科医しかいません(4)。これらの診断と治療の大きなギャップに対処することは、世界的な公衆衛生の優先事項です(1、2)。これらの課題に対して、スマートフォン、ウェアラブルセンサー、クラウドベースのコンピューティング、インテリジェントテクノロジーの急速な普及により、患者の自己モニタリングと医療へのアクセスの拡大のための前例のない機会がもたらされ、何百万人もの人々がすでにそのようなテクノロジーに目を向けています(1、5-15)。ディープラーニングの急速な進歩により、一部の専門家は、AIが医療と医師の仕事を破壊する態勢を整えていると予測しています(6、11、9でレビュー)。ディープラーニングシステムは、制御された設定の下で、診断精度において放射線科医や病理医に匹敵するか、それを上回る性能を発揮しています(9)。実際、テクノロジーの未来学者の中には、AI/MLの進歩により、いつの日か医師の必要性が完全になくなるかもしれないと主張する人もいます(7、11)。他の情報学者やAI専門家はそれほど楽観的ではなく、医師の役割に完全に取って代わられることはなく、医療の未来は人間と機械の間の「チームスポーツ」になる可能性が高いと予測しています(10、13)。後者の見解と一致して、オックスフォード大学の労働市場報告書は、今後20年間に米国の総雇用の47%がインテリジェントテクノロジーによる代替のリスクにさらされる一方で、医師が行う仕事は自動化のリスクが低くなると予測しています(16)。この見解は、30カ国以上の技能データを調べた経済協力開発局(Office of Economic Cooperation and Development)の最近のワーキングペーパー(17)の著者によっても共有されています。
活発で継続的な議論にもかかわらず、AIが医療従事者に与える影響に関する開業医の意見にはあまり注意が払われていません。これは、医師と非常に脆弱な患者との間の長期的で共感的な関係に依存するメンタルヘルスケアにおいて、また、ダウンロード可能なメンタルヘルスアプリの氾濫に照らして、特に重要です。この調査では、AI/MLと呼ばれる自律型知能技術が将来の仕事に与える影響と、メンタルヘルスの文脈における潜在的なリスクとベネフィットについて、精神科医の意見を調査しようとしました。
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
方法
調査サンプル
調査とデータ分析は、2019年の春/夏に実施されました。これは、医師のネットワーキングと匿名の調査研究のために設計された安全なデジタル(オンライン)プラットフォームであるSermoに登録されている精神科医の横断的なグローバル調査でした。このプラットフォームは、検証および認可された医師専用であり、世界中で800,000万人以上のすべての専門分野の医師が登録されています。この調査では、登録された精神科医を無作為に抽出し、米国、ヨーロッパ、その他の地域から代表を得ました。そのため、これは探索的研究であり、以前の報告(18)に近づくために、約750人の精神科医の回答者の目標サンプルサイズを目指しました。この調査では、国籍、人口統計、精神医学の将来に対する認識に関する情報を収集しました。労働力の認識そして練習の特徴。匿名の調査結果は、回答者の個人を特定できる情報とのリンクを解除し、匿名化されたデータを作成しました。この研究には、デューク大学の治験審査委員会の免除研究の要件と一致する機密データや識別可能なデータは含まれていません。
測量機器
以前に有用性があることが示された手段(18、19)を使用し、この調査では、精神科医の役割の日常的な部分である主要なタスクに特化した10の質問を含めるように修正しました。質問は、精神科医との協議と、顔の妥当性と実現可能性を確認するための最初の試験的実施の後に含まれました。これは世界的な調査であったため、10のタスクは、さまざまな国やさまざまなタイプの医療システムの精神科医に共通していました。タスクには、1)患者に関する文書(医療記録の更新など)の提供、2)精神状態の検査の実施、3)病歴を取得するためのさまざまな設定で精神科患者にインタビューする、4)殺人念慮を検出するための患者情報の分析、5)自殺念慮を検出するための患者情報の分析、6)診断に到達するための患者情報の統合、7)患者のための個別の投薬および/または治療治療計画の策定、 8)患者を外来治療と入院治療に紹介するタイミングを評価し、9)患者情報を分析して精神疾患の経過(予後)を予測し、10)患者に共感的なケアを提供します。タスクの説明は、人間の医師やテクノロジーに偏っていない中立的な言葉を採用しました。回答者が質問と回答の選択肢をどのように解釈するかについて、曖昧さを避けるため、タスクが部分的にではなく、完全にテクノロジーにアウトソーシングされる可能性が高いかどうかに焦点を当てました。また、回答者が機械学習による置き換えに対して最も脆弱である(または最も脆弱でない)と考えるタスクについて、差別的な意見を表明できるようにすることも目的としました。最後に、「機械学習」という用語は一部の医師には馴染みがなく、医療AI研究者の間では狭すぎると思われるため、AIイノベーションを指すために「機械」や「テクノロジー」などの一般的な用語を使用しました。
最初の10項目は、「人工知能の現在および将来の革新が精神医療の実践に大きな変化をもたらし、いつの日か機械が精神科医の仕事に取って代わると信じている人もいます。また、新しい技術がこの仕事に取って代わる能力を持つことを否定する人もいます。次に、「将来のテクノロジーは、人間の医師が平均的な精神科医と同等かそれ以上に各タスクを遂行するのを助けるだけでなく、完全に取って代わることができるようになる」可能性について意見を求めました。6段階のリッカート項目を用いて、「非常に可能性が低い」、「可能性は低い」、「やや可能性は低い」、「やや可能性は低い」、「やや可能性が高い」、「可能性は極めて高い」と回答した。「わからない」、「中立的」、「意見なし」の選択肢は、回答者がこれらの回答を混同することが多いという理由で避けた(20)。さらに、これらの選択肢を含めることは、精神科医の間で実質的な意見の測定を妨げたかもしれない:研究は、時間に追われている個人が自分の答えにあまり労力を費やすことができない自己記入式質問票のリスクであることを示している(21)。置き換えが「やや可能性が高い」、「可能性が高い」、または「非常に可能性が高い」と回答した参加者には、推定技術がタスクを実行する能力をどのくらいの期間で持つかについてフォローアップの質問をし、5つの回答オプションのリスト(0〜4年後、5〜10年後、11〜25年後、25〜50年後、50年以上後)を提供しました。
データと統計的手法
匿名化されたデータを分析して、要約統計量と95%信頼区間を抽出しました。記述統計を用いて、10の主要な精神医学的課題において、将来の技術が医師に取って代わる可能性について、医師の特性と意見を調べた。また、いくつかの対照的な意見について、肯定的な意見(「やや可能性が高い」、「可能性が高い」、「非常に可能性が高い」)と否定的な意見(「やや可能性が低い」、「可能性が低い」、「非常に可能性が低い」)に分かれました。95%CIが重複していない対照群は、質的に異なるものと見なされた。
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
結果
サンプル特性
表1は、人口統計学的特性をまとめたものである。最終的な回答者は、南北アメリカ、ヨーロッパ、アジア太平洋の22カ国を代表する791人の精神科医で構成されていました(表2)。参加した医師の約40%は44歳未満で、さらに34%が55歳以上でした。女性はサンプルの約30%を占めました。約3分の2(64%)が白人で、残りはアジア系、黒人、ヒスパニック系、または混血であると説明しています。参加者は、公立診療所(52%)、個人開業医(35%)、学界(13%)で働いていました。ほとんどの患者が、平均1日あたり10人以上の患者を診察していると報告しています。
医師の仕事のAI/テクノロジーによる代替に関する意見 回答者の約48.7%が、今後25年間、AI/MLは精神科医の将来の仕事に影響を与えないか、最小限に抑えると感じています(図1)。回答者のわずか3.8%が、将来のテクノロジーによって自分の仕事が時代遅れになる可能性が高いと感じています。また、47%が今後25年間でAI/MLによって仕事が緩やかに変化すると予測しています(図1)。特定の精神科課題のAI/技術的代替に関する意見 10の特定の精神科課題の結果を表3および表4に示す。ほとんどの回答者(83%)は、将来のテクノロジーが平均的な精神科医と同等かそれ以上の共感的ケアを提供できる可能性は低いと感じています。同様に、ほとんどの精神科医は、精神状態の検査(67%)、急性殺人念慮の評価(58%)、病歴を得るためのさまざまな状況での患者へのインタビュー(58%)、入院患者と外来治療のどちらを参照するかを決定する(55%)、パーソナライズされた患者の治療計画の策定(53%)、自殺念慮の評価(52%)について、将来のテクノロジーが精神科医に完全に取って代わる可能性は低いと考えています。対照的に、回答者の大多数(83%)は、将来のテクノロジーが文書化のタスク(医療記録の更新など)で人間の医師に取って代わることができる可能性が高いと判断しています。ほぼ半数(47%)が今後4年以内にそのような状況が出現すると予測し、さらに37%が5年から10年後を予測しています(図2)。さらに、僅差で過半数(54%)が、診断に到達するための情報の統合に関しては、将来のテクノロジーが人間の医師に完全に取って代わることができる可能性が高いと考えています。約32%が今後4年以内にそのような状況が出現すると予測し、さらに41%が5年から10年後を予測しています(図3)。表5は、精神科医が予測した、AI/MLの能力が、特定の精神科業務ごとにAI/MLに取って代わるようになるまでのタイムラインを示しています。
将来のテクノロジー/AIの潜在的な利益とリスクに関する意見
リスクベネフィットの判断は、医師の性別や診療場所によっても異なっていた。全回答者のうち、40%がAI/MLの潜在的なメリットが起こりうるリスク/害を上回るかどうか確信が持てないと回答し、さらに25%が潜在的なメリットが起こりうるリスクを上回らないと回答しました(図4)。将来のAI/MLの潜在的なメリットが、自分の分野で起こりうるリスクを上回ると感じているのはわずか36%でした。女性精神科医(48%)は、男性精神科医(35%)よりも、精神医学におけるAI/MLのベネフィットがリスクを上回るかどうか確信が持てない傾向が強かった。AIのメリットが起こりうるリスクを上回ると予測した女性はわずか23%だったのに対し、男性は41%でした(図5)。同様に、米国を拠点とする企業(46%)は、欧州(37%)やその他の地域(32%)よりも、精神医学におけるAI/MLのメリットがリスクを上回るかどうか確信が持てない傾向が強かった。米国を拠点とする精神科医のうち、将来のテクノロジー/AIの潜在的な利益が起こりうるリスクを上回ると予測したのはわずか30%でした(図6)。
AI/MLテクノロジーが臨床ケアにどのように役立つか、または害を及ぼすかについての予測
回答者は、調査の選択を詳しく説明するために、自由形式の定性的なコメントを提出するよう求められました。これらの定性的なコメントは別の記事の主題になりますが、ここでは洞察のレベルを示すために、選択したコメントを紹介します。AI/MLの潜在的なメリット(表6)には、「ヒューマンエラーの排除」、「あらゆる環境での作業」、「ケアプランの標準化と個別化」、「ビッグデータのより効率的な統合」、「精神科医が不足している状況で治療のスケーラビリティが大きな助けになる」、「患者からのより誠実な回答」、「初級の精神科医のトレーニング」、「ワークフローを合理化して精神科医の時間を解放する」、「現在不透明な脳疾患の病因解明」などがあります。人間」。特定された可能性のあるリスク/有害性(表7)には、「共感性の欠如」、「人ではなく物として残る」、「職の離職による反感」、「プライバシーの減少と運命論の増加」、「AIと話すことがスティグマにどのように役立つかわからない」、「精神状態を包括的に評価できない」、「管理者がAIを使用して作業負荷を増やすと燃え尽き症候群が大きくなる」などがあります。 そして「医師は創造的思考を捨てる」。
ディスカッション
世界経済フォーラムの2019年の報告書「80億人の心に力を与える」では、「人間の苦しみという点で、精神疾患の負担は壊滅的であり、増大している」こと、そして「すべての人が治療を受けられるわけではない36の大国では、メンタルヘルスの状態により120億日以上の生産性が失われている」ことを強調しています(2)。メンタルヘルスに焦点を当てたアプリは、世界のデジタルヘルス市場で最も急速に成長している分野の一つであると指摘し、すべての人のメンタルヘルスを改善するために、倫理的、共感的、エビデンスに基づいた方法でテクノロジーを採用するよう呼びかけています(2)。その文脈において、私たちの調査は、精神科医がメンタルヘルスケアにおける将来のインテリジェントテクノロジーの潜在的な利益とリスクについてどのように考えているか、そしてAIが自分の仕事にどのように影響するかについて、初めての世界的な洞察を提供します。いくつかの重要な発見が浮かび上がりました。精神科医の約2人に1人が、AI/MLによって仕事が大きく変わると考えている一方で、AI/MLによって仕事が時代遅れになると感じているのはわずか3.8%でした。また、私たちの調査では、医師が、未来のテクノロジーが人間の医師と同等かそれ以上に複雑な精神医学的課題を遂行できるかどうか懐疑的であることも明らかになりました。特に、回答者の圧倒的多数(83%)は、将来のテクノロジーが平均的な精神科医と同等またはそれ以上の共感的ケアを提供できる可能性は低いと感じています。精神科医の本質的な役割である精神状態の検査、危険行動の評価、個別化治療計画の策定なども、将来のAI/ML技術では実現しそうにない課題であると感じられました。
医師が表明した懐疑的な見方には、いくつかの説明があるのではないかと推測しています。1つの可能性は、特に過去50年間のAIの多くのブームと不況のサイクルを考えると、AIをめぐる誇大広告に慎重であり(22)、人間の相互作用とパーソナライズされた専門家の分析に高い価値を置いていることです。メンタルヘルスの診断とケアにおけるAIツールの有用性を実証する調査研究が増えていますが(2,9,14)、人間の感情や精神疾患の全範囲を正確に認識して理解するAIにはまだほど遠いです。さらに、AIが医師を凌駕することもある放射線学や病理学などのパターンベースの分野とは異なり、精神医学では、文化的および心理社会的要因と医学的併存疾患をより深く統合する必要があります。この調査結果の対照的な説明は、医師が自分のスキルを過大評価している(9)か、インテリジェント技術の急速な進歩を過小評価している可能性があるということである。後者が本当なら、患者ケアの提供における技術的変化をナビゲートするための専門職の準備についても疑問を投げかけます(2、9、11、12、14)。回答者から得られたさまざまな意見は、複数の相反する信念や要因が作用している可能性があることを示唆しています。
調査結果の妥当性は、最近の研究(16-18、23)によって裏付けられています。オックスフォード大学のカール・フレイ教授とマイケル・オズボーン教授による労働市場報告書は、702の職種について、自動化による失業のリスクを調べた(16)。彼らは、知覚、創造的知性、社会的知性、共感、手先の器用さなど、必要なスキルで仕事を評価しました。米国の労働市場全体の47%が失業のリスクにさらされていると感じられたが、メンタルヘルスのソーシャルワーカーと医師の仕事はリスクが低いと感じられた(16)。経済協力開発局(Office of Economic Cooperation and Development)が30カ国以上のデータを用いて行った予測でも、医師の仕事は自動化のリスクが低いことがわかった(17)。2018年の英国の調査では、家庭医は、共感的なケアを提供する上で機械に取って代わる可能性は低いと考えていることがわかりました(18)。韓国の医師のAIに関する知識を調査した調査では、AIが医師に取って代わることができるという意見は35%にとどまった(23)。
今回の調査で明らかになったもう1つの重要な洞察は、比較的多くの医師(40%)が、メンタルヘルスにおける将来のAIの潜在的な利益が、起こりうるリスク/害を上回るかどうか確信が持てないということです。特に、女性精神科医(男性よりも)と米国の精神科医(他の精神科医よりも)は、AIのメリットが潜在的なリスクを上回ることに確信が持てない人が多い。この理由はわかりませんが、医師がAIの知識に自信が持てず、マーケティングの誇大広告とグラウンドトゥルースを区別するのが難しいと感じる可能性があるという事実など、いくつかの推測的な可能性があります。
私たちの調査で指摘されたAIリスク認識の性差は目新しいものですが、女性は男性よりもリスク回避的であるという多くの調査結果に見合っている可能性があります(24)。したがって、女性精神科医は、特に倫理、偏見、不平等、データプライバシー、および検証が不十分な「ブラックボックス」アルゴリズムのリスクに関して曖昧さが続く場合、AI/MLの利点と害を比較検討する際に、より慎重かつ慎重になる可能性があります(2、10、25)。国民皆保険制度や消費者・市民のデータプライバシーに関する厳しい規制で運営されている欧州諸国とは異なり、米国は複数の保険制度で運営されており、データプライバシー規則は大幅に脆弱です。これは、米国の医療従事者が、電子機器によって収集された健康情報の共有や、第三者への販売や民間保険契約の決定における継続的なオンライン監視により、患者がより深刻なリスクにさらされていると認識している理由の1つである可能性があります。EU 一般データ保護規則 (GDPR) では、個人データに対する管理を個人に委ねており、企業はデフォルトで可能な限り高いプライバシー設定を使用することが義務付けられています。カリフォルニア州では2020年1月に並行して法律が施行される可能性がありますが、米国ではこれまでのところ、連邦レベルでそのような法律が制定されておらず、その意欲もあまりありません。健康データ収集に関する市民保護に関する立法の動きの欠如は、米国の文脈において、脆弱な患者の間での機械学習の利点についてさらに警戒心を喚起した可能性があります。
いくつかの中・低所得国に拠点を置く開業医は、AIが専門職に及ぼす有益な影響について、米国の開業医よりも楽観的な見方を示しましたが、これはおそらく低・中所得国での医療へのアクセスの低さが原因と考えられます(1)。世界保健機関(WHO)の最近の報告によると、低所得国における精神科医の不足は、富裕国の約100倍である(1)。AI/MLのイノベーションが、メンタルヘルスケアへのより安価でスケーラブルなアクセスを提供することで効率を最適化する可能性は、メンタルヘルス状態のスティグマ化も重要かつ継続的な考慮事項である可能性のある、リソース不足の医療システムで働く精神科医の見解に影響を与えた可能性があります。最後になりましたが、私たちの調査では、メンタルヘルスケアを強化するために、医師に取って代わるのではなく、医師と協力するためにAI/MLを最適に展開する方法について、世界中の精神科医(エンドユーザー)から強力な洞察が得られました。新しいテクノロジーがヘルスケアに採用されない決定的な理由は、エンドユーザーが考慮されていないことが多いことです。回答者は、AI/MLによって有効性と患者との向き合う時間を改善できる方法と、将来のAIによるいくつかの潜在的なリスク/害を特定しました。医師はAI/MLに取って代わる可能性に懐疑的でしたが、精神科医の約2人に1人は、将来のテクノロジーが彼らの仕事を大きく変えるだろうと感じています。また、精神科医は、AI/MLは、管理上の負担の軽減、24時間年中無休のモニタリング、副作用を軽減するための個別化された薬剤標的、ウェアラブルや遺伝学からの新しいデータストリームの統合、ヒューマンエラーの削減、精神科医が不足している分野へのケアの拡大、現在不透明な脳の病因の解明など、いくつかの方法で役立つ可能性があると予測しています。特定された懸念とリスクには、プライバシーの喪失、透明性の欠如、スティグマへの未知の影響、誤った診断または治療、非人間化、共感の欠如、スループットの向上による医師の燃え尽き症候群の増加、およびコントロールの喪失が含まれます。これらの知見は、専門家が指摘したもの(2、9、10、14、25)に追加され、さらなる研究と倫理的監視の優先事項であるべきです。
強みと限界
これは、AIが精神科医の職業に与える影響に関する意見を調査する最初の世界的な調査です。この調査は、22カ国のさまざまな診療環境から集められた精神科医の比較的大きなサンプルの恩恵を受けました。さらに、検証済みで資格のある医師のグローバルプラットフォームであるSermoを採用することで、最前線で開業している精神科医を採用することができました。私たちの調査にはいくつかの制限があります。第1に、発展途上国(アフリカなど)からの回答者が相対的に少ないこと、サンプリングバイアス(例:プラットフォームに登録している人)、回答バイアス(例:トピックへの関心度合いが参加者の参加に影響を与えた可能性がある)、および測定されていない変数の交絡効果である。母集団の誤差幅の推定値がない場合、95%信頼区間を計算した。人間中心主義のバイアスを減らすために、細かいサブタスクではなく、幅広い精神医学的機能に焦点を当てた。最後に、多くの調査と同様に、因果関係や予測の妥当性を判断することはできず、機械学習が精神医学に与える影響は、何十年もの間、知られていない可能性があります。したがって、この文脈では、私たちの発見は暫定的なものとして解釈されなければなりません。私たちの調査結果を再現し、拡張するための人口調査が正当化されます。このような制限にもかかわらず、このグローバル調査は、精神科医がメンタルヘルスケアにおける将来の技術についてどのように考えているかについての基本的な洞察を提供します。
結論
今後の調査では、精神医学やメンタルヘルスサービスに対するAIの影響について、患者や精神疾患に苦しむ人々の見解を有益に調べることができるかもしれません。メンタルヘルスの研究と実践のネクサスで働く情報学者とAI専門家の間の予測について。このような洞察を組み合わせることで、メンタルヘルスの専門家や患者が機械学習技術を導入し、グローバルな健康とウェルビーイングに対する最も重要な課題に対処するためのより良い開発と検証、準備を整えることができます。
表1. 精神科医の人口統計 (N=791)
| 属性 | カテゴリ | 割合 (%) |
|---|---|---|
| 性別 | 男性 | 69.5% |
| 女性 | 29.2% | |
| 回答しない | 1.1% | |
| 年齢 | 25-34歳 | 9.7% |
| 35-44歳 | 29.3% | |
| 45-54歳 | 26.7% | |
| 55-64歳 | 24.7% | |
| 65歳以上 | 9.6% | |
| 人種/民族 | アジア系 | 17.6% |
| 黒人/アフリカ系/カリブ系 | 2.0% | |
| 混血/複数の民族 | 3.7% | |
| 白人 | 64.3% | |
| その他の民族 | 3.2% | |
| 回答しない | 9.3% |
表2. 回答した精神科医の勤務国
| 国名 | N | 割合 (%) |
|---|---|---|
| アメリカ合衆国 | 276 | 34.9% |
| フランス | 77 | 9.7% |
| イタリア | 74 | 9.4% |
| ドイツ | 59 | 7.5% |
| スペイン | 57 | 7.2% |
| イギリス | 50 | 6.3% |
| ロシア連邦 | 30 | 3.8% |
| オーストラリア | 25 | 3.2% |
| 日本 | 22 | 2.8% |
| メキシコ | 20 | 2.5% |
| カナダ | 18 | 2.3% |
| ギリシャ | 15 | 1.9% |
| 中国 | 14 | 1.8% |
| ブラジル | 12 | 1.5% |
| ポーランド | 11 | 1.4% |
| トルコ | 11 | 1.4% |
| オランダ | 8 | 1.0% |
| ベルギー | 4 | 0.5% |
| スイス | 3 | 0.4% |
| ノルウェー | 2 | 0.3% |
| ポルトガル | 2 | 0.3% |
| インド | 1 | 0.1% |
表3. 質問「あなたの意見では、将来の技術がこれらのタスクを平均的な精神科医と同じくらい、またはそれ以上にうまく遂行できる可能性はどれくらいですか?」への回答
| タスク | 極めて 可能性が低い (%) (95% CI) | 可能性が低い (%) (95% CI) | やや 可能性が低い (%) (95% CI) | やや 可能性が高い (%) (95% CI) | 可能性が高い (%) (95% CI) | 極めて 可能性が高い (%) (95% CI) |
|---|---|---|---|---|---|---|
| 患者に関する文書作成(例:診療記録の更新) | 6 (4.3 to 7.7) | 8 (6.1 to 9.9) | 11 (8.8 to 13.2) | 24 (21.0 to 27.0) | 24 (21.0 to 27.0) | 28 (24.9 to 31.1) |
| 患者への共感的なケアの提供 | 53 (49.5 to 56.5) | 19 (16.3 to 21.7) | 11 (8.8 to 13.2) | 9 (7.0 to 11.0) | 5 (3.5 to 6.5) | 3 (1.8 to 4.2) |
| 患者に対する個別の薬物療法および/または治療計画の策定 | 16 (13.5 to 18.6) | 20 (17.2 to 22.8) | 17 (14.4 to 19.6) | 25 (22.0 to 28.0) | 14 (11.6 to 16.4) | 8 (6.1 to 9.9) |
| 患者を外来治療に紹介するか入院治療に紹介するかの判断 | 17 (14.4 to 19.6) | 19 (16.3 to 21.7) | 19 (16.3 to 21.7) | 26 (22.9 to 29.1) | 12 (9.7 to 14.3) | 7 (5.2 to 8.8) |
| 患者情報を分析して予後を立てる | 15 (12.5 to 17.5) | 15 (12.5 to 17.5) | 19 (16.3 to 21.7) | 27 (23.9 to 30.1) | 16 (13.5 to 18.6) | 8 (6.1 to 9.9) |
| 患者情報を分析して急性の殺意を検出する | 20 (17.2 to 22.8) | 21 (18.2 to 23.8) | 17 (14.4 to 19.6) | 23 (20.1 to 25.9) | 12 (9.7 to 14.3) | 6 (4.3 to 7.7) |
| 患者情報を分析して自殺念慮を検出する | 18 (15.3 to 20.7) | 17 (14.4 to 19.6) | 16 (13.5 to 18.6) | 25 (21.9 to 28.0) | 14 (11.6 to 16.4) | 9 (7.0 to 11.0) |
| 患者情報を統合して診断に至る | 15 (12.5 to 17.5) | 15 (12.5 to 17.5) | 16 (13.5 to 18.6) | 29 (25.8 to 32.2) | 17 (14.4 to 19.6) | 9 (7.0 to 11.0) |
| 精神状態検査を実施する | 27 (23.9 to 30.1) | 24 (21.0 to 27.0) | 16 (13.5 to 18.6) | 17 (14.4 to 19.6) | 10 (7.9 to 12.1) | 6 (4.3 to 7.7) |
| 様々な設定で精神科患者の面接を行い、病歴を取得する | 24 (21.0 to 27.0) | 21 (18.2 to 23.8) | 13 (10.7 to 15.3) | 20 (17.2 to 22.8) | 14 (11.6 to 16.4) | 8 (6.1 to 9.9) |
以下は表4の日本語訳です:
表4. 「将来の技術が以下のタスクを平均的な精神科医と同等かそれ以上に実行できる可能性はどの程度だと思いますか?」という質問への回答*
意見 頻度-パーセンテージ (95% 信頼区間)
| タスク | 可能性が低い | 可能性が高い |
|---|---|---|
| 患者に関する文書作成(例:医療記録の更新) | 25 (22.0 to 28.0) | 75 (72.0 to 78.0) |
| 患者に共感的なケアを提供する | 83 (80.4 to 85.6) | 17 (14.4 to 19.6) |
| 患者個別の薬物療法や治療計画を策定する | 53 (49.5 to 56.5) | 47 (43.5 to 50.5) |
| 外来と入院治療のどちらに患者を紹介するか評価する | 55 (51.5 to 58.5) | 45 (41.5 to 48.5) |
| 患者情報を分析して予後を確立する | 49 (45.5 to 52.5) | 51 (47.5 to 54.5) |
| 患者情報を分析して急性の殺人念慮を検出する | 58 (54.6 to 61.4) | 42 (38.6 to 45.4) |
| 患者情報を分析して自殺念慮を検出する | 52 (48.5 to 55.5) | 48 (44.5 to 51.5) |
| 患者情報を統合して診断に到達する | 46 (42.5 to 49.5) | 54 (50.5 to 57.5) |
| 精神状態検査を実施する | 67 (63.7 to 70.3) | 33 (29.7 to 36.3) |
| 様々な環境で精神科患者にインタビューして病歴を得る | 58 (54.6 to 61.4) | 42 (38.6 to 45.4) |
*6段階のリッカート尺度を2つのカテゴリー(可能性が高い、可能性が低い)に統合しています。
表6. 精神科におけるAI/機械学習の潜在的利点に関する医師のコメント*
- 「AIはどんな環境でも働け、疲れずにムードもない。」
- 「AIは私たちよりも簡単にコントロールできる。」
- 「人間のエラーを排除する。医療ミスが少なく、標準化されたプロトコルで良い結果が得られる。」
- 「精神科医の生活の質が向上し、仕事が効率化されることで生産性が増し、あるいは余暇が増えることにつながる。」
- 「患者は人工知能に対してより正直に回答し、励ましやサポートをより客観的に受け入れることができる。」
- 「標準化された計画の作成と標準化された評価の実施。」
- 「人種や性別による偏見が少なく、大規模データを人間より効率的に活用できる。」
- 「リスクのある患者が早期に治療を受けるように支援する可能性がある。」
- 「精神科医が不足している地域で大きな利益になるだろう。治療のスケーラビリティ。」
- 「初心者の精神科医に実践的なガイダンスを提供する。」
- 「AIは現在私たちには不透明な脳疾患の病因を解明するのにも役立つだろう。」
- 「主要な問題はAIを医療従事者として社会が容認するかどうかであり、その能力ではないことのようだ。」
*範囲を示すために選択されたコメント
表 7.精神医学におけるAI/MLの潜在的な害に関する医師のコメント*「共感の欠如/人間性の欠如は治療プロセスを危険にさらすでしょう。」「エンパスは、将来的には特定の役職になるかもしれません。AIと仕事をする人」「AI/テクノロジーに対する反感は、職の奪われによるものかもしれない」「AIは患者の精神状態を包括的に評価することができないため、正確な問題を特定することはできません。」「機械が診断にたどり着くまでのプロセスがブラックボックス化する可能性があります。人智の彼方にある」「メンタルヘルスの治療にはすでにスティグマがあり、AIに話しかけることが治療プロセスにどのように役立つのかはまったくわかりません。」「機械が意識のシミュレーションを意識するまでは、たとえ完璧にしても、孤独の痛みをなくすことはできません。AIは人ではなく物であり続けるだろう」 「潜在的な害は、患者のプライバシーが減り、一般的に運命論が強くなることです」「節約された時間が(管理者によって)精神科医の患者負担を増やすために使われると、燃え尽き症候群が深刻化する可能性があります。」「非人間化を悪化させ、一部のせん妄症状を悪化させるリスク」 「医師は創造的な臨床的思考を捨てる」 *意見の範囲を示すために選択しました
