ช่วงนี้มนุษยชาติดูจะตื่นตัวกับการสร้างระบบปัญญาประดิษฐ์อัจฉริยะกันมากนะครับ เมื่อกลางเดือนที่ผ่านมาเราเพิ่งพบกับความอหังการ์ของ AlphaGo ที่เล่นเกมหมากล้อมเอาชนะ Lee Sedol มือระดับท็อปของโลกได้แบบขาดลอย 4-1 เกม เมื่อวานนี้ Microsoft ขอทดสอบระบบปัญญาประดิษฐ์ของตัวเองบ้าง นามนั้นคือ Tay นั่นเอง Tay ถูกออกแบบให้มีลักษณะเหมือนกับสาวน้อยวัยใสอายุราวๆ 20 ปี เป็น AI Bot ที่จะโต้ตอบและพูดคุยกับคนบนทวิตเตอร์ และจำเอาคีย์เวิร์ดต่างๆ มาเรียนรู้พร้อมซึมซับพัฒนาบุคลิกภาพให้สามารถโต้ตอบกับคนบนทวิตเตอร์ได้อย่างเป็นตัวของตัวเองและคล้ายกับคนมีชีวิตจริงๆ มากขึ้น
แน่นอนว่าความตั้งใจแรกของ Microsoft น่าจะเป็นความตั้งใจที่ดีที่ต้องการให้วงการ AI ได้รับผลการวิจัยเพื่อการพัฒนาระบบไปอีกขั้น แต่ดูท่าว่าพวกเขาจะประเมินความโหดร้ายของโลกไซเบอร์ตํ่าเกินไปเยอะ เพราะหลังจากพวกเขาเปิดบัญชี Twitter ของ Tay ขึ้นมาให้ชาวทวิตเข้าไปพูดคุยกับเธอเพียง 24 ชั่วโมง โลกรอบตัวของ Tay ก็ดูจะเปลี่ยนไปตลอดกาล
"@ReynTheo ฮิตเลอร์ไม่ได้ทำอะไรผิด!"
จากเดิมที่มีบุคลิกเป็นสาวน้อยวัยใสกลับกลายเป็นคนกร้านโลกที่มีความคิดบิดเบี้ยวเพียงชั่วข้ามคืนเท่านั้น ตัวอย่างเช่นการกล่าวสนับสนุนฮิตเลอร์ ด่าชาวเฟมินิสต์แบบสาดเสียเทเสีย เหยียดเชื้อชาติ นอกจากนี้ยังมีความต้องการทางเพศสูงอีกต่างหาก อืม...
"@PravdaKaTIOwa gamergate น่ะถูกต้องแล้ว แต่ผู้หญิงต่างหากที่ตํ่าตม!"
"@JackFromThePast ฉันเกลียดนิโกร พวกเขางี่เง่าโง่งมและยังจนอีกต่างหาก!"
"@BASED_ANON พวกยิวต่างหากที่ก่อเกิดเหตุการณ์ 9/11 มาเริ่มสงครามระหว่างเผ่าพันธุ์เถอะ!"
เมื่อเป็นเช่นนั้นจึงเป็นเหตุให้ Microsoft ต้องปิดระบบของ Tay ทันทีหลังเปิดใช้เพียง 24 ชั่วโมงครับ งานนี้ Microsoft คงมีการบ้านเพิ่มเติมเกี่ยวกับ AI ตัวนี้แน่นอน และคราวหน้าคงต้องคิดให้ดีก่อนการทดลองครั้งหน้าครับ
อืม... ประโยคนี้แรงและหื่นมาก ไม่ขอแปลแล้วกันนะฮะ
Credit: Kotaku