ReadyPlanet.com


ChatGPT แจ้งข้อกังวลเกี่ยวกับข้อมูลข่าวสารด้านสาธารณสุขที่ขับเคลื่อนโดย AI


 

ChatGPT แจ้งข้อกังวลเกี่ยวกับข้อมูลข่าวสารด้านสาธารณสุขที่ขับเคลื่อนโดย AI

OpenAIเป็นบริษัทวิจัยและพัฒนาที่ใช้ปัญญาประดิษฐ์ (AI) ซึ่งเพิ่งพัฒนาChatGPTซึ่งเป็นโมเดลภาษาขนาดใหญ่ (LLM) แม้ว่า LLM ที่พัฒนาก่อนหน้านี้สามารถทำงานการประมวลผลภาษาธรรมชาติ (NLP) ที่หลากหลายได้ แต่ ChatGPT ก็ประมวลผลต่างกัน ChatGPT เป็นแชทบอท AI ที่สามารถโต้ตอบในการสนทนาได้เหมือนมนุษย์

 

ที่น่าสนใจคือเพียง 5 วันหลังจากเปิดตัว ChatGPT ก็มีผู้ใช้มากกว่าหนึ่งล้านคน ผู้ใช้ส่วนใหญ่ลองใช้ ChatGPT เพื่อตอบคำถามที่ซับซ้อนหรือสร้างข้อความสั้นๆ เมื่อเทียบกับข้อความที่พัฒนาขึ้นเอง การตรวจจับการคัดลอกผลงานในข้อความที่สร้างโดยเครื่องมือ ChatGPT นั้นไม่ใช่เรื่องง่าย

 

การศึกษาใน วารสารFrontiers in Public Healthล่าสุดมุ่งเน้นไปที่วิวัฒนาการของ LLM นอกจากนี้ยังประเมินว่า ChatGPT จะส่งผลกระทบต่อการวิจัยในอนาคตและสุขภาพของประชาชนได้อย่างไร การศึกษานี้มีวัตถุประสงค์เพื่อส่งเสริมการอภิปรายเกี่ยวกับหน้าที่ของ ChatGPT ในการวิจัยทางการแพทย์ โดยพิจารณาจากแนวคิดของ "Infodemic ที่ขับเคลื่อนด้วย AI" 

 

มุมมอง: ChatGPT และการเพิ่มขึ้นของโมเดลภาษาขนาดใหญ่: เกมบาคาร่า  ภัยคุกคามด้านข้อมูลข่าวสารใหม่ที่ขับเคลื่อนโดย AI ในด้านสาธารณสุข  เครดิตรูปภาพ: Mila Supinskaya Glashchenko / Shutterstockมุมมอง: ChatGPT และ การเพิ่มขึ้นของโมเดลภาษาขนาดใหญ่: ภัยคุกคามด้านข้อมูลข่าวสารใหม่ที่ขับเคลื่อนโดย AI ในด้านสาธารณสุข เครดิตรูปภาพ: Mila Supinskaya Glashchenko / Shutterstock

 

วิวัฒนาการของ LLM

ในช่วงห้าปีที่ผ่านมา มีการสังเกตการเติบโตแบบทวีคูณของ LLM ซึ่งทำให้สามารถดำเนินงานที่หลากหลายได้ อย่างไรก็ตาม ก่อนปี 2560 โมเดล NLP ส่วนใหญ่ได้รับการฝึกฝนสำหรับงานเฉพาะอย่างใดอย่างหนึ่ง ข้อเสียนี้ได้รับการแก้ไขโดยการพัฒนาสถาปัตยกรรมเครือข่ายแบบ self-attention network หรือที่เรียกว่า Transformer ในปี พ.ศ. 2561 แนวคิดนี้ถูกนำมาใช้เพื่อพัฒนาโมเดลปฏิวัติสองรูปแบบ ได้แก่ Generative Pretrained Transformer (GPT) และ Bidirectional Encoder Representations from Transformers (BERT)

 

เพื่อให้บรรลุความสามารถทั่วไปใน BERT และ GPT จึงใช้การผสมผสานระหว่างการปรับจูนแบบละเอียดแบบมีผู้ดูแลและแบบฝึกก่อนแบบไม่มีการควบคุม วิธีการนี้ทำให้สามารถประยุกต์การแสดงภาษาที่ฝึกไว้ล่วงหน้าเพื่อดำเนินการงานดาวน์สตรีมได้

 

โมเดล GPT มีการพัฒนาอย่างรวดเร็ว และมีการเปิดตัวหลายเวอร์ชัน เวอร์ชันที่ปรับปรุงประกอบด้วยข้อมูลและพารามิเตอร์ที่เป็นข้อความขนาดใหญ่ ตัวอย่างเช่น GPT เวอร์ชันที่สาม (GPT-3) มีขนาดใหญ่กว่า GPT-2 ถึง 100 เท่า และมีพารามิเตอร์ 175 พันล้านตัว แม้ว่า GPT-3 สามารถสร้างข้อความที่ครอบคลุมโดเมนได้หลากหลาย แต่ก็มักจะให้ข้อความที่มีอคติซึ่งมีข้อเท็จจริงที่ไม่จริง นี่เป็นเพราะ LLM จำนวนมาก รวมถึง GPT-3 จำลองอคติ เนื่องจากได้รับการออกแบบมาให้คาดการณ์องค์ประกอบข้อความถัดไปโดยอิงจากข้อมูลที่มีอยู่บนอินเทอร์เน็ต ปัญหาหลักคือการออกแบบ LLM ที่สอดคล้องกับคุณค่าของมนุษย์และหลักจริยธรรม

 

เพื่อแก้ไขปัญหาดังกล่าว OpenAI ได้พัฒนา ChatGPT ซึ่งรวมเอาพารามิเตอร์ 1.3 พันล้านตัวที่ได้รับการฝึกอบรมโดยใช้การเรียนรู้แบบเสริมกำลังจากความคิดเห็นของมนุษย์ (RLHF) ChatGPT ปี 2021 สร้างข้อความที่ไม่ถูกต้องเนื่องจากไม่สามารถตรวจสอบข้อเท็จจริงได้ ซึ่งได้รับการแก้ไขโดยการรวม GPT-4 เข้ากับ ChatGPT แม้ว่า ChatGPT ล่าสุดจะสร้างข้อมูลที่เชื่อถือได้ แต่ก็ควรคำนึงถึงข้อจำกัดทั้งหมดของเครื่องมือนี้ โดยเฉพาะอย่างยิ่งในขณะที่นำไปใช้ในการวิจัยทางการแพทย์

 

การประเมินภัยคุกคามของ ChatGPT ในด้านสาธารณสุขโดยพิจารณาจาก Infodemic ที่ขับเคลื่อนด้วย AI

นักวิจัยสามารถใช้ ChatGPT เพื่อสร้างบทความทางวิทยาศาสตร์ที่สำคัญได้ ตัวอย่างเช่น สามารถใช้เครื่องมือนี้เพื่อแนะนำชื่อเรื่องที่เกี่ยวข้องสำหรับบทความวิจัย เขียนแบบร่าง และแสดงแนวคิดทางวิทยาศาสตร์ที่ซับซ้อนด้วยภาษาอังกฤษที่เรียบง่ายและถูกต้องตามหลักไวยากรณ์ ความสนใจสูงใน ChatGPT ในชุมชนวิทยาศาสตร์สามารถวัดได้จากการเพิ่มจำนวนบทความวิจัยเกี่ยวกับเครื่องมือนี้อย่างรวดเร็ว

 

การตรวจชิ้นเนื้อจากลมหายใจ®: คู่มือฉบับสมบูรณ์ eBook บทนำ เกี่ยวกับการตรวจชิ้นเนื้อในลมหายใจ รวมถึงตัวบ่งชี้ทางชีวภาพ เทคโนโลยี การใช้งาน และกรณีศึกษา

ดาวน์โหลดฉบับล่าสุด

ผู้เขียนหลายคนใช้ ChatGPT เพื่อเขียนส่วนหนึ่งของบทความทางวิทยาศาสตร์ของตนแล้ว สิ่งนี้ตอกย้ำความจริงที่ว่าเครื่องมือนี้ได้รวมอยู่ในกระบวนการวิจัยแล้ว ก่อนที่จะมีการระบุข้อกังวลด้านจริยธรรมและกำหนดกฎมาตรฐานสำหรับการประยุกต์ใช้  

 

LLM อาจถูกหลอกให้สร้างข้อความที่เกี่ยวข้องกับหัวข้อที่เป็นที่ถกเถียงหรือเนื้อหาที่ให้ข้อมูลผิดๆ LLMs สามารถสร้างข้อความที่คล้ายกับที่มนุษย์แต่งขึ้น ความสามารถนี้สามารถนำไปใช้ในทางที่ผิดเพื่อสร้างบทความข่าวปลอมและเนื้อหาปลอมแปลงหรือทำให้เข้าใจผิดโดยที่ผู้ใช้ไม่ทราบว่าเนื้อหานั้นผลิตโดย AI

 

เมื่อเร็ว ๆ นี้ ผู้เขียนบางคนเน้นย้ำถึงความจำเป็นในการตรวจจับ LLM ที่สามารถระบุข่าวปลอมได้ ตัวตรวจจับ GPT-2 ปัจจุบันไม่น่าเชื่อถือในการตรวจจับข้อความที่เขียนโดย AI เมื่อสร้างโดย ChatGPT มีความจำเป็นอย่างต่อเนื่องในการปรับปรุงตัวตรวจจับให้สอดคล้องกับความก้าวหน้าอย่างรวดเร็วของ LLM เพื่อลดเจตนาร้าย

 

เนื่องจากไม่มีเครื่องตรวจจับที่แม่นยำ จึงต้องปฏิบัติตามมาตรการป้องกันไว้ก่อน ตัวอย่างเช่นการประชุมนานาชาติเกี่ยวกับการเรียนรู้ของเครื่อง (ICML) ในปี 2023ห้ามใช้ LLM ในฉบับร่างที่ส่งมา อย่างไรก็ตาม ไม่มีเครื่องมือใดที่ใช้ตรวจสอบการปฏิบัติตามกฎนี้ได้

 

วารสารทางวิทยาศาสตร์หลายฉบับได้ปรับปรุงหลักเกณฑ์ของผู้แต่ง ตัวอย่างเช่น วารสาร Springer Nature เสริมว่า LLM ไม่สามารถระบุเป็นผู้เขียนได้ และการใช้งานจะต้องกล่าวถึงในส่วนวิธีการหรือกิตติกรรมประกาศ Elsevier ได้นำหลักเกณฑ์ที่ปรับปรุงแล้วเหล่านี้ไปใช้ด้วย

 

สามารถใช้ ChatGPT ในทางที่ผิดเพื่อสร้างบทคัดย่อ บทความ และบรรณานุกรมทางวิทยาศาสตร์ปลอม ที่นี่ สามารถใช้ระบบระบุวัตถุดิจิทัล (DOI) เพื่อตรวจจับการอ้างอิงปลอมได้อย่างแม่นยำ นักวิทยาศาสตร์ชี้ให้เห็นว่าต้องใช้เวลาหลายปีในการวิจัยเพื่อตรวจสอบความถูกต้องของการค้นพบทางการแพทย์ก่อนที่จะสามารถนำมาใช้ในทางการแพทย์ได้ ดังนั้น ข้อมูลปลอมที่สร้างขึ้นโดยเครื่องมือ AI อาจเป็นอันตรายต่อความปลอดภัยของผู้คน

 

การระบาดของโรคติดเชื้อไวรัสโคโรนา 2019 (COVID-19) ส่งผลกระทบต่อการวิจัยด้านสุขภาพอย่างมาก สาเหตุหลักมาจากการเผยแพร่ข้อมูลอย่างรวดเร็วจากเซิร์ฟเวอร์การพิมพ์ล่วงหน้า ผ่านทางโซเชียลมีเดียที่ส่งผลต่อการเลือกสุขภาพของแต่ละคน ข้อมูล COVID-19 ส่วนใหญ่แพร่กระจายผ่านโซเชียลมีเดีย ซึ่งส่งผลให้เกิดปรากฏการณ์ที่เรียกว่า infodemic พบว่า infodemic สามารถมีอิทธิพลอย่างมากต่อการตัดสินใจทางการแพทย์ในกลยุทธ์การป้องกันหรือการรักษา ผู้เขียนคาดการณ์ถึงภัยคุกคามด้านสาธารณสุขที่สำคัญในอนาคตเนื่องจากการสร้างข้อมูลข่าวสารที่ขับเคลื่อนด้วย AI



ผู้ตั้งกระทู้ ญารินดา :: วันที่ลงประกาศ 2023-05-18 12:07:21


แสดงความคิดเห็น
ความคิดเห็น *
ผู้แสดงความคิดเห็น  *
อีเมล 
ไม่ต้องการให้แสดงอีเมล



Copyright © 2013 All Rights Reserved.