‘เฟซบุ๊ก’ ใช้ Algorithm

ประเมินสุขภาพจิตทำนายโอกาสฆ่าตัวตายกำลังถูกตั้งคำถาม

เฟซบุ๊ก ที่กำลังสร้างฐานข้อมูล ฆ่าตัวตาย ด้านสุขภาพใหม่ของผู้ใช้งาน

‘เฟซบุ๊ก’ กำลังสแกนเกือบทุกโพสต์บนแพลตฟอร์มของตัวเอง เพื่อประเมินความเสี่ยงในการ ฆ่าตัวตาย จากนั้นจะทำการส่งข้อมูลเพื่อไปยังหน่วยงานบังคับใช้กฎหมายในการตรวจสอบสุขภาพจิตใจ

ดูเหมือนเป็นเรื่องน่าสนใจใช่ไหม?

แต่อย่างไรก็ตาม เรื่องนี้อาจละเมิดกับความเป็นส่วนตัว โดยผู้เชี่ยวชาญด้านข้อมูลส่วนบุคคลต่างบอกว่า เรื่องนี้เป็นดาบสองคม เพราะเฟซบุ๊กนั้นล้มเลวเรื่องการได้รับความยินยอมจากผู้ใช้ สำหรับโปรแกรมต่างๆ ที่เฟซบุ๊กนำเสนอนั้น มักเสี่ยงต่อการละเมิดความเป็นส่วนตัว ที่สุดท้ายแล้วอาจนำไปสู่สถานการณ์ที่แย่ลงกว่าเดิม เนื่องจากการประเมินหรือตัดสินสภาพจิตใจนั้น จะต้องได้รับความยินยอมจากผู้ใช้งาน

ย้อนกลับไปในเดือนมีนาคม 2017 เฟซบุ๊กเปิดตัวโครงการบางอย่างขึ้นมา ที่เกี่ยวกับการป้องกันการฆ่าตัวตายด้วยปัญญาประดิษฐ์ (AI)

‘เฟซบุุ๊ก’ ใช้อัลกอริทึ่มทำนายโอกาส การฆ่าตัวตายจากโพสต์ของพวกคุณ

หลังจากเหตุการณ์ฆ่าตัวตายจำนวนมากที่ถูกตรีมสดบนแพลตฟอร์มในฟังกชั่น Live! Streaming เฟซบุ๊กจึงพยายามออกแบบอัลกอริทึ่มในการตรวจจับสัญญาณอันตรายที่อาจเกิดขึ้น แบบเชิงรุกเพื่อแก้ไขปัญหาร้ายแรง

แต่ …

ในปีถัดมา (ค.ศ. 2018) ก็เกิดเรื่องอื้อฉาวขึ้น เมื่อเฟซบุ๊กทำข้อมูลส่วนบุคคลหลุด และแชร์ข้อมูลส่วนบุคคลของผู้ใช้งานกับ Data Partner อย่าง Microsoft กลุ่มในเครือโรงแรมชื่อดัง ฯลฯ โดยที่ผู้ใช้งานไม่ทราบ ทำให้ไอเดียเรื่องประเมินสุขภาพจิตจากอัลกอริทึ่มนี้เองก็กำลังถูกตั้งคำถามเช่นกัน

แนวคิดของเฟซบุ๊กที่ต้องการสร้างและจัดเก็บข้อมูลสุขภาพจิตที่ดำเนินการโดยไม่ได้รับความยินยอมจากผู้ใช้งาน ส่งผลให้เหล่าผู้เชี่ยวชาญด้านความเป็นส่วนบุคคจำนวนมาก กังวลว่า เฟซบุ๊กจะสามารถสร้างความน่าเชื่อถือในข้อมูลและการจัดเก็บข้อมูล รวมถึงความเชื่อถือในการกล่าวอ้างว่าผู้ใช้งานกำลังอยู่ในภาวะเสี่ยงทางจิตใจได้จริงหรือไม่

เรื่องนี้จึงเป็นเรื่องที่เราต้องตั้งคำถามกับแพลตฟอร์มว่า เฟซบุ๊ก ที่กำลังสร้างฐานข้อมูลสุขภาพใหม่ของผู้ใช้งานนั้น ไม่ได้อยู่ภายใต้มาตรฐานความเป็นส่วนบุคคล ในฐานะผู้ให้บริการด้านการดูแลสุขภาพโดยตรง เนื่องจากเฟซบุ๊กไม่ใช่สถาบันทางการแพทย์

ระบบอัลกอริทึ่มจะทำการประเมินจากเกือบทุกโพสต์บนแพลตฟอร์ม และทำการให้คะแนนเนื้อหาในแต่ละส่วนจากระดับศูนย์ถึงหนึ่ง โดยจะมีรูปแบบของเนื้อหาที่แสดงถึงโอกาสสูงสุดของอันตรายที่ใกล้เข้ามา

กระบวนการสร้างข้อมูลนั้นสร้างความกังวลให้กับนักวิเคราะห์นโยบายของ Center for Democracy and Technology (CDT) ในกรุงวอชิงตัน ดี.ซี. สหรัฐอเมริกา อย่าง Natasha Duarte ซึ่งเธอให้สัมภาษณ์กับเรื่องดังกล่าวผ่าน Business Insider ว่า การเก็บข้อมูลด้านสุขภาพและมีการประเมินนั้น กลายเป็นเรื่องที่ควรพิจารณาว่าเป็นเรื่องที่ละเอียดอ่อน และไม่ว่าใครก็ตามที่พยายามรวบรวมข้อมูลประเภทดังกล่าว หรือทำการประเมินเรื่องข้อมูลสุขภาพ ต้องรู้ว่ามันเป็นเรื่องที่ไวต่อความรู้สึก

ปัจจุบันกฎหมายคุ้มครองข้อมูลส่วนบุคคลที่ควบคุมข้อมูลด้านสุขภาพในปัจจุบัน ยังไม่ครอบคลุมการใช้กับข้อมูลที่สร้างขึ้นโดยอัลกอริทึม เพื่อป้องกันการฆ่าตัวตายของแพลตฟอร์ม เพราะเป็นพระราชบัญญัติที่ควบคุมดูแลสถานบริการสุขภาพอย่าง โรงพยาบาล คลีนิก บริษัทประกัน เป็นต้น เท่านั้น ทำให้บริษัทอย่างแพลตฟอร์มเฟซบุ๊กที่มีการอ้างถึงข้อมูลสุขภาพของบุคคลจากแหล่งที่มาที่ไม่ใช่ศูนย์การแพทยนั้น ไม่ได้อยู่ภายใต้ข้อกำหนดความเป็นส่วนตัว

นอกจากนี้ เฟซบุ๊กยังไม่โปร่งใสเกี่ยวกับวิธีการส่งและรับข้อมูลระหว่างคอมพิวเตอร์หรือ โปรโตคอล (Protocol) ส่งผลให้การจัดเก็บข้อมูลขนาดใหญ่แบบใหม่บน Cloud ของเฟซบุ๊ก อาจเป็นเรื่องของการละเมิดข้อมูลด้านสุขภาพจิต จากความเสี่ยงของการจัดเก็บข้อมูลที่ละเอียดอ่อน โดยไม่มีการป้องกันที่เหมาะสมและมองการณ์ไกล

ในเดือนกันยายน 2018 เฟซบุ๊กออกมายอมรับว่ามีการละเมิดข้อมูลส่วนบุคคลจากโปรไฟล์ประมาณ 30 ล้านผู้ใช้งาน และมีรูปกับโพสต์ที่ถูกละเมิดอีก 400,000 รายการ สุดท้ายแล้วเราจะป้องกันการฆ่าตัวตายจากข้อมูลอัลกอริทึ่มที่เป็นเรื่องของการละเมิดข้อมูลส่วนบุคคลหรือไม่ โดยองค์กรที่ตัดสินสุขภาพจิตจากสถาบันที่ไม่ใช่สถาบันทางการแพทย์ หรือแม้แต่ในอนาคตอาจจะมีใครก็ได้ที่สามารถค้นหาคุณบน กูเกิล เพื่อไปพบโปรไฟล์สุขภาพจิตของคุณบนเฟซบุ๊ก

Dr. Dan Reidenberg ผู้เชี่ยวชาญด้านการป้องกันการฆ่าตัวตายที่ได้รับการยอมรับในสหรัฐฯ ซึ่งช่วยให้เฟซบุ๊ก เปิดตัวโปรแกรมป้องกันการฆ่าตัวตาย เปิดเผยว่า ทางทีมงานทราบดีถึงความเสี่ยงในการครอบครองข้อมูลด้านสุขภาพจิตของผู้ใช้งาน และการสร้างข้อมูลดังกล่าว ทำให้เมื่อมีการโพสต์สถานะดังกล่าวจะมีการตั้งค่าว่า เสี่ยงต่อการฆ่าตัวตาย และถูกส่งไปยังทีมผู้ดูแลเนื้อหาของเฟซบุ๊ก ที่แม้ว่าจะไม่ใช่ผู้เชี่ยวชาญเรื่องสุขภาพจิต แต่พวกเขายืนยันว่าพวกเขาเป็นผู้เชี่ยวชาญที่ได้รับการฝึกฝนเพื่อคัดกรองโพสต์อย่างถูกต้อง เมื่อมีบางโพสต์ที่เสี่ยงต่อการถูกฆ่าตัวตาย

ในสหรัฐฯ มีกรณีตัวอย่างจากการแทรกแซงของเฟซบุ๊กที่ถูกรายงานผ่าน The New York Times ว่า  เหตุการณ์หนึ่งที่มีการบันทึกไว้โดยตำรวจ มีอัลกอริทึ่มตรวจจับว่าผู้ใช้งานรายหนึ่งมีแนวโน้มว่าจะฆ่าตัวตาย โปรแกรมจึงส่งข้อมูลสุขภาพจิตที่ได้จากการประเมินผ่านปัญญาประดิษฐ์ไปให้ตำรวจ เพื่อให้ตำรวจพาผู้ใช้งานรายนั้น ไปรงพยาบาลเพื่อประเมินสุขภาพจิตต่อไป แต่ปรากฎว่าพวกเขาไม่ได้อยากฆ่าตัวตาย ส่วนอีกกรณีหนึ่งก็คือตำรวจเปิดเผยข้อมูลส่วนบุคคลเกี่ยวกับการประเมินผู้ใช่งานที่ถูกตั้งค่าสถานะว่ามีความเสี่ยงต่อการฆ่าตัวตายโดยเฟซบุ๊ก ไปยัง The New York Times

แต่อย่างไรก็ตามระบบดังกล่าวนั้นถูกแบนในสหภาพยุโรป แม้เฟซบุ๊กจะใช้อัลกอริทึมประเมินการฆ่าตัวตาย เพื่อสแกนโพสต์ในภาษาอังกฤษสเปนโปรตุเกสและอาหรับ แต่ไม่สามารถสแกนโพสต์ในสหภาพยุโรป เนื่องจากถูกบล็อกโดยกฎหมายคุ้มครองข้อมูลส่วนบุคคลที่คือว่า GDPR ซึ่งผู้ใช้ต้องให้ความยินยอมเป็นพิเศษแก่เว็บไซต์ในการรวบรวมข้อมูลที่ละเอียดอ่อน เช่น ข้อมูลที่เกี่ยวข้องกับสุขภาพจิต

ซึ่งเป็นมุมมองที่มองต่างกับในสหรัฐฯ เนื่องจากพวกเขามองว่า แม้มันจะเป็นเรื่องยากแต่การที่พวกเขาจะพิจารณาว่าจะเปิดใช้งานโปรแกรมเหล่านี้เพื่อช่วยชีวิตใครสักคนนั้น สำหรับเรื่องทางการแพทย์ การเสียสละเรื่องข้อมูลความเป็นส่วนตัว เป็นเรื่องที่เผชิญกันอยู่แล้วทุกวันในสถานประกอบการพยาบาล

ซึ่งโปรแกรมป้องกันการฆ่าตัวตายของเฟซบุ๊กนั้นจะต้องให้ผู้ใช้เลือกที่จะยืนยันหรืออย่างน้อยก็มีวิธีให้ผู้ใช้เลือกที่จะไม่เข้าร่วมโปรแกรม แต่ในปัจจุบันไม่มีตัวเลือกเหล่านั้น

DIGITAL BUSINESS CONSULT

สร้างโอกาสทางธุรกิจในยุค Digital ด้วยชุดความรู้จากประสบการณ์ตรงจากที่ปรึกษาการตลาดออนไลน์ ให้คุณทำธุรกิจประสบความสำเร็จได้อย่างมีแบบแผน และเป็นรูปธรรม จัดตั้งและบริหารโดย ดร.โดม อุดมธิปก ไพรเกษตร เพื่อสนับสนุนที่ปรึกษาการตลาดออนไลน์ SMEs และนักการตลาดรุ่นใหม่ จึงให้ความสำคัญกับการให้คำปรึกษา สร้างความเข้าใจ ประยุกต์แนวคิด และใช้เครื่องมือ Digital เพื่อให้คุณดำเนินธุรกิจก้าวทัน Digital 4.0 ในปัจจุบัน

แสดงความคิดเห็น

Related Post