Các nhà tâm lý và kỹ năng của họ là không thể thay thế, nhưng việc triển khai AI một cách chu đáo và có chiến lược là rất quan trọng
Trong thực hành tâm lý học, chatbot trí tuệ nhân tạo (AI) có thể giúp việc trị liệu trở nên dễ tiếp cận hơn và ít tốn kém hơn. Các công cụ AI cũng có thể cải thiện các biện pháp can thiệp, tự động hóa các nhiệm vụ hành chính và hỗ trợ đào tạo bác sĩ lâm sàng mới. Về mặt nghiên cứu, trí tuệ nhân tạo đang đưa ra những cách mới để hiểu trí thông minh của con người, trong khi học máy cho phép các nhà nghiên cứu thu thập thông tin chuyên sâu từ lượng dữ liệu khổng lồ. Trong khi đó, các nhà giáo dục đang tìm cách tận dụng ChatGPT trong lớp học.
“Rất nhiều người phản kháng, nhưng đây là điều mà ta không thể kiểm soát. Nó đang xảy ra dù ta có muốn hay không,” Jessica Jackson, Tiến sĩ, nhà tâm lý và người ủng hộ công nghệ công bằng có trụ sở tại Texas, cho biết. “Nếu ta chu đáo và có chiến lược về cách tích hợp AI, ta có thể tạo ra tác động thực sự đến cuộc sống trên toàn thế giới.”
Bất chấp tiềm năng của AI, vẫn có lý do để lo ngại. Các công cụ AI được sử dụng trong chăm sóc sức khỏe đã phân biệt đối xử với mọi người dựa trên chủng tộc và tình trạng khuyết tật của họ (Grant, C., ACLU News and Commentary, ngày 3 tháng 10 năm 2022). Các chatbot nổi loạn đã truyền bá thông tin sai lệch, bày tỏ tình yêu của chúng với người dùng và quấy rối tình dục trẻ vị thành niên, điều này khiến các nhà lãnh đạo trong lĩnh vực công nghệ và khoa học kêu gọi tạm dừng nghiên cứu AI vào tháng 3 năm 2023.
Tom Griffiths, Tiến sĩ, giáo sư tâm lý học và khoa học máy tính, người chỉ đạo Phòng thí nghiệm Khoa học Nhận thức Tính toán tại Đại học Princeton, cho biết: “Phần lớn điều thúc đẩy sự tiến bộ là năng lực mà các hệ thống này có—và điều đó vượt xa mức độ chúng ta hiểu về cách chúng hoạt động”. “Điều hợp lý hiện nay là thực hiện việc đầu tư lớn và song song vào việc tìm hiểu các hệ thống này,” điều mà các nhà tâm lý học có đủ khả năng để giúp thực hiện.
Khám phá thiên kiến
Khi các thuật toán và chatbot tràn ngập hệ thống, một số câu hỏi quan trọng đã xuất hiện. AI có an toàn để sử dụng không? Nó có đạo đức không? Những biện pháp bảo vệ nào có thể giúp đảm bảo quyền riêng tư, tính minh bạch và công bằng khi những công cụ này ngày càng được sử dụng rộng rãi trên toàn xã hội?
Các nhà tâm lý có thể nằm trong số những người có trình độ cao nhất để trả lời những câu hỏi đó, với việc được đào tạo về các phương pháp nghiên cứu khác nhau, cách đối xử có đạo đức với những người tham gia, tác động tâm lý, v.v.
Adam Miner, PsyD, trợ lý giáo sư lâm sàng về tâm thần học và khoa học hành vi tại Đại học Stanford, cho biết: “Một trong những điều độc đáo mà các nhà tâm lý học đã làm trong suốt lịch sử của chúng ta là phát hiện ra tác hại có thể xảy ra bởi những thứ có vẻ bình đẳng hoặc công bằng”. Bản tóm tắt được đệ trình bởi Kenneth Clark, Tiến sĩ, và Mamie Phipps Clark, Tiến sĩ, trong vụ Brown kiện Hội đồng Giáo dục.
Khi nói đến AI, các nhà tâm lý học có chuyên môn để đặt câu hỏi về các giả định về công nghệ mới và kiểm tra tác động của nó đối với người dùng. Tiến sĩ tâm lý học Arathi Sethumadhavan, cựu giám đốc nghiên cứu AI của nhóm đạo đức và xã hội của Microsoft, đã tiến hành nghiên cứu về DALL-E 2, GPT-3, Bing AI và các nhóm khác.
Sethumadhavan cho biết các nhà tâm lý có thể giúp các công ty hiểu được giá trị, động lực, kỳ vọng và nỗi sợ hãi của các nhóm khác nhau có thể bị ảnh hưởng bởi công nghệ mới. Họ cũng có thể giúp tuyển dụng người tham gia một cách nghiêm ngặt dựa trên các yếu tố như giới tính, tổ tiên, tuổi tác, tính cách, số năm kinh nghiệm làm việc, quan điểm về quyền riêng tư, sự đa dạng về thần kinh, v.v.
Với những nguyên tắc này, Sethumadhavan đã kết hợp quan điểm của các bên liên quan bị ảnh hưởng khác nhau để định hình sản phẩm một cách có trách nhiệm. Ví dụ: đối với tính năng chuyển văn bản thành giọng nói mới, cô đã phỏng vấn các diễn viên lồng tiếng và những người gặp trở ngại về giọng nói để hiểu và giải quyết cả lợi ích cũng như tác hại của công nghệ mới. Nhóm của cô biết được rằng những người gặp trở ngại về lời nói rất lạc quan khi sử dụng sản phẩm để nâng cao sự tự tin của họ trong các cuộc phỏng vấn và thậm chí cả khi hẹn hò, đồng thời giọng nói tổng hợp có khả năng thay đổi theo thời gian sẽ giúp trẻ em sử dụng dịch vụ tốt hơn. Cô cũng đã áp dụng các phương pháp lấy mẫu được các nhà tâm lý học sử dụng thường xuyên để tăng tính đại diện của người Mỹ gốc Phi trong các bộ dữ liệu nhận dạng giọng nói.
Sethumadhavan cho biết: “Ngoài ra, điều quan trọng là chúng tôi mang đến quan điểm của những người tham gia bên ngoài vào vòng đời phát triển AI,” bao gồm cả những người đóng góp dữ liệu (chẳng hạn như hình ảnh khuôn mặt của họ để đào tạo hệ thống nhận dạng khuôn mặt), thu thập dữ liệu và các chuyên gia làm giàu gắn nhãn dữ liệu (chẳng hạn như lọc ra nội dung không phù hợp).
Các nhà tâm lý cũng đang xem xét kỹ lưỡng sự tương tác giữa con người và máy móc để hiểu cách mọi người nhìn nhận về AI và những tác động lan tỏa mà những nhận thức đó có thể gây ra trên toàn xã hội. Một nghiên cứu của nhà tâm lý học Yochanan Bigman, Tiến sĩ, trợ lý giáo sư tại Đại học Do Thái ở Jerusalem, cho thấy mọi người ít phẫn nộ về mặt đạo đức hơn trước sự phân biệt giới tính do thuật toán gây ra so với sự phân biệt đối xử do con người tạo ra (Tạp chí Tâm lý học Thực nghiệm, Tập. 152, số 1, 2023). Những người tham gia nghiên cứu cũng cảm thấy các công ty chịu ít trách nhiệm pháp lý hơn đối với sự phân biệt đối xử về mặt thuật toán.
Trong một nghiên cứu khác, Bigman và các đồng nghiệp đã phân tích các tương tác tại một khách sạn ở Malaysia sử dụng cả robot và con người. Sau khi khách của khách sạn tương tác với người lao động là robot, họ đối xử với người lao động theo cách ít mang tính tôn trọng hơn (người làm công tác giấy tờ).
Ông nói: “Có một hiệu ứng lan tỏa, khi đột nhiên ta có những tác nhân này là công cụ thì điều đó có thể khiến ta coi con người cũng là công cụ”.
Sethumadhavan cho biết vẫn còn nhiều câu hỏi về nguyên nhân khiến mọi người tin tưởng hoặc dựa vào AI và việc trả lời chúng sẽ rất quan trọng trong việc hạn chế tác hại, bao gồm cả việc lan truyền thông tin sai lệch. Bigman cho biết, các cơ quan quản lý cũng đang cố gắng quyết định cách ngăn chặn sức mạnh của AI và ai chịu trách nhiệm khi có sự cố xảy ra.
“Nếu một người nào đó phân biệt đối xử với tôi, tôi có thể kiện họ,” anh nói. “Nếu một AI phân biệt đối xử với tôi, tôi có dễ dàng chứng minh điều đó không?”
AI trong phòng khám
Thực hành tâm lý học đã chín muồi cho những đổi mới về AI—bao gồm chatbot trị liệu, các công cụ tự động hóa việc ghi chú và các nhiệm vụ hành chính khác cũng như đào tạo và can thiệp thông minh hơn—nhưng các bác sĩ lâm sàng cần những công cụ mà họ có thể hiểu và tin tưởng.
Mặc dù chatbot thiếu bối cảnh, kinh nghiệm sống và sắc thái lời nói của các nhà trị liệu con người, nhưng chúng có khả năng lấp đầy những khoảng trống trong việc cung cấp dịch vụ sức khỏe tâm thần.
Jackson nói: “Điểm mấu chốt là chúng tôi không có đủ nhà cung cấp. “Mặc dù việc trị liệu nên trở nên dễ tiếp cận cho tất cả mọi người nhưng không phải ai cũng cần nó. Các chatbot có thể đáp ứng nhu cầu.” Đối với một số vấn đề về sức khỏe tâm thần, chẳng hạn như khó ngủ hoặc bị các cơn đau mãn tính, hướng dẫn từ chatbot có thể là đủ.
Ngoài việc giúp việc hỗ trợ sức khỏe tâm thần trở nên hợp lý và dễ tiếp cận hơn, chatbot có thể giúp những người có thể né tránh nhà trị liệu là con người, chẳng hạn như những người mới tham gia trị liệu hoặc những người mắc chứng lo âu xã hội. Jackson cho biết, chúng cũng mang đến cơ hội cho lĩnh vực này tự hình dung lại – để chủ động xây dựng những AI có năng lực về mặt văn hóa có thể làm cho tâm lý học mang tính hòa nhập cao hơn.
Jackson nói: “Mối quan tâm của tôi là AI sẽ không mang tính toàn diện. “Rốt cuộc, AI phải được đào tạo. Ai đang lập trình nó?”
Các mối quan tâm nghiêm trọng khác bao gồm sự đồng ý có hiểu biết của cả 2 phía và quyền riêng tư của bệnh nhân. Người dùng có hiểu cách thuật toán hoạt động và điều gì xảy ra với dữ liệu của họ không? Vào tháng 1, tổ chức phi lợi nhuận về sức khỏe tâm thần Koko đã gây ngạc nhiên sau khi cung cấp dịch vụ tư vấn cho 4.000 người mà không cho họ biết sự hỗ trợ đến từ ChatGPT-3. Các báo cáo cũng nổi lên, nói rằng việc tiếp nhận liệu pháp từ các mô hình ngôn ngữ sáng tạo (tạo ra các văn bản khác nhau trong mỗi tương tác, gây khó khăn cho việc kiểm tra tính hợp lệ hoặc an toàn lâm sàng) đã dẫn đến tự tử và các tác hại khác.
Nhưng tâm lý học cũng có những câu chuyện thành công về AI. Chatbot Wysa không sử dụng AI tổng hợp nhưng giới hạn tương tác trong các tuyên bố được các nhà trị liệu con người soạn thảo hoặc phê duyệt. Wysa không thu thập địa chỉ email, số điện thoại hoặc tên thật và biên tập lại những thông tin mà người dùng chia sẻ có thể giúp nhận dạng họ.
Ứng dụng cung cấp liệu pháp hành vi nhận thức cho chứng lo âu và đau mãn tính, đã nhận được Chỉ định Thiết bị Đột phá từ Cục Quản lý Thực phẩm và Dược phẩm Hoa Kỳ. Nó có thể được sử dụng như một công cụ độc lập hoặc được tích hợp vào liệu pháp truyền thống, nơi các bác sĩ lâm sàng có thể theo dõi sự tiến bộ của bệnh nhân giữa các buổi trị liệu, chẳng hạn như hiệu suất của các bài tập điều chỉnh lại nhận thức.
“Wysa không nhằm mục đích thay thế các nhà tâm lý học hoặc sự hỗ trợ của con người. Đó là một cách mới để nhận được sự hỗ trợ,” Smriti Joshi, MPhil, nhà tâm lý học trưởng của công ty cho biết.
AI cũng có khả năng giúp tăng hiệu quả trong phòng khám bằng cách giảm bớt gánh nặng của các nhiệm vụ hành chính. Các công cụ xử lý ngôn ngữ tự nhiên như Eleos có thể nghe các phiên họp, ghi chú và nêu bật các chủ đề cũng như rủi ro để nhà thực hành xem xét. Các nhiệm vụ khác phù hợp với tự động hóa bao gồm phân tích đánh giá, theo dõi các triệu chứng của bệnh nhân và quản lý thực hành.
Trước khi tích hợp các công cụ AI vào quy trình làm việc của mình, nhiều bác sĩ lâm sàng muốn biết thêm thông tin về cách xử lý dữ liệu bệnh nhân cũng như những ứng dụng nào an toàn và hợp đạo đức khi sử dụng. Miner cho biết lĩnh vực này cũng cần hiểu rõ hơn về tỷ lệ lỗi và loại lỗi mà các công cụ này có xu hướng mắc phải. Điều đó có thể giúp đảm bảo những công cụ này không tước quyền của các nhóm đã bị loại trừ khỏi hệ thống y tế, chẳng hạn như những người nói tiếng Anh như ngôn ngữ thứ hai hoặc sử dụng các cụm từ nhạy cảm về mặt văn hóa.
Miner và các đồng nghiệp cũng đang sử dụng AI để đo lường những gì có tác dụng tốt trong các buổi trị liệu và xác định những lĩnh vực cần cải thiện cho học viên (Nghiên cứu Sức khỏe Tâm thần npj, Tập 1, Số 19, 2022). Ví dụ: mô hình ngôn ngữ tự nhiên có thể tìm kiếm hàng nghìn giờ trị liệu và đưa ra các cơ hội bị bỏ lỡ trong việc xác nhận bệnh nhân hoặc không đặt được các câu hỏi quan trọng, chẳng hạn như liệu bệnh nhân có ý định tự tử có súng ở nhà hay không. Phần mềm đào tạo theo hướng này, chẳng hạn như Lyssn — đánh giá các nhà cung cấp về việc tuân thủ các quy trình dựa trên bằng chứng — đang bắt đầu được tung ra thị trường.
“Đối với tôi, đó là lúc AI thực sự hoạt động tốt,” Miner nói. “Bởi vì nó không cần phải hoàn hảo và nó giúp con người luôn ngồi vào ghế lái.”
Chuyển hóa quá trình nghiên cứu
Đối với các nhà nghiên cứu, AI đang mở khóa kho dữ liệu mới về hành vi của con người—và mang đến sức mạnh trong việc phân tích dữ liệu đó. Các nhà tâm lý từ lâu đã đo lường hành vi thông qua các báo cáo và thí nghiệm trong phòng thí nghiệm do họ tự tổng hợp, nhưng giờ đây họ có thể sử dụng AI để giám sát những thứ như hoạt động trên mạng xã hội, chi tiêu thẻ tín dụng, dữ liệu GPS và số liệu điện thoại thông minh.
“Điều đó thực sự thay đổi rất nhiều, bởi vì đột nhiên ta có thể nhìn vào sự khác biệt của từng cá nhân khi chúng diễn ra trong hành vi hàng ngày,” nhà tâm lý và nhà nghiên cứu nhân cách Sandra Matz, Tiến sĩ, phó giáo sư tại Trường Kinh doanh Columbia, cho biết.
Matz kết hợp dữ liệu lớn về trải nghiệm hàng ngày với các phương pháp truyền thống hơn, chẳng hạn như đánh giá nhất thời về sinh thái (EMA). Việc kết hợp các nguồn dữ liệu đó có thể vẽ nên một bức tranh về cách những người khác nhau phản ứng với cùng một tình huống và cuối cùng định hình các biện pháp can thiệp được cá nhân hóa giữa các lĩnh vực, ví dụ như trong giáo dục và chăm sóc sức khỏe.
AI cũng mở ra cơ hội giám sát thụ động nhưng có thể cứu mạng người. Tiến sĩ Ross Jacobucci và Tiến sĩ Brooke Ammerman, cả hai đều là trợ lý giáo sư tâm lý học tại Đại học Notre Dame, đang thử nghiệm một thuật toán thu thập ảnh chụp màn hình hoạt động trực tuyến của bệnh nhân để gắn cờ việc sử dụng hoặc xem các thuật ngữ liên quan đến tự tử và tự hại. Bằng cách ghép nối dữ liệu đó với EMA và số liệu sinh lý từ đồng hồ thông minh, họ hy vọng sẽ xây dựng được một công cụ có thể cảnh báo các bác sĩ lâm sàng trong thời gian thực về nguy cơ tự tử của bệnh nhân.
“Đây là “con ngỗng vàng” có khả năng cảm nhận thụ động,” Jacobucci nói. “Làm sao nó có thể thông báo, không chỉ ai đang gặp rủi ro, mà quan trọng hơn là khi nào họ gặp rủi ro?”
Các mô hình xử lý ngôn ngữ tự nhiên cũng đang tỏ ra hữu ích cho các nhà nghiên cứu. Một nhóm tại Đại học Drexel ở Philadelphia đã chỉ ra rằng GPT-3 có thể dự đoán chứng mất trí nhớ bằng cách phân tích các kiểu giọng nói (Agbavor, F., & Liang, H., PLOS Digital Health, Tập 1, Số 12, 2022 ). Các nhà tâm lý học nhận thức đang kiểm tra hiệu suất của GPT trên các thí nghiệm kinh điển để tìm hiểu thêm về khả năng suy luận của nó so với con người như thế nào (Binz, M., & Schulz, E., PNAS, Tập 120, Số 6, 2023). Griffiths đang sử dụng GPT như một công cụ để hiểu giới hạn của ngôn ngữ con người.
Griffiths nói: “Những mô hình này có thể làm được rất nhiều điều rất ấn tượng. “Nhưng nếu muốn cảm thấy an toàn khi giao nhiệm vụ cho chúng, ta cần hiểu thêm về cách chúng thể hiện thế giới—và nó có thể khác với cách ta hình dung—trước khi cách thể hiện này gây ra vấn đề.”
Với hộp công cụ để tìm hiểu các hệ thống thông minh, các nhà tâm lý học có thể trợ giúp hoàn hảo. Một câu hỏi lớn sắp tới là làm sao chuẩn bị cho sinh viên sắp tốt nghiệp cộng tác hiệu quả hơn với các nhà khoa học máy tính xây dựng mô hình AI.
Jacobucci nói: “Những người làm trong ngành tâm lý học không biết các thuật ngữ trong khoa học máy tính và ngược lại—và có rất ít người có thể giao thoa giữa hai lĩnh vực này”.
Cuối cùng, AI sẽ đặt ra những thách thức cho các nhà tâm lý học, nhưng việc đáp ứng những thách thức đó mang lại tiềm năng biến đổi lĩnh vực này.
Joshi nói: “AI sẽ không bao giờ thay thế hoàn toàn con người, nhưng nó có thể thôi thúc ta nâng cao nhận thức và tự giáo dục bản thân về cách tận dụng nó một cách an toàn”. “Nếu ta làm điều đó, AI có thể cải thiện ngành tâm lý học theo nhiều cách.”
Vân Anh dịch từ nguồn https://www.apa.org/monitor/2023/07/psychology-embracing-ai