เรื่องราวด้วยแชทบอท microsoft tay แชทบอทของ Microsoft เริ่มพูดคุยถึงหัวข้อต้องห้าม คนชั่วก็คือบอทที่ชั่วร้าย

เห็นได้ชัดว่าการพัฒนาเทคโนโลยีปัญญาประดิษฐ์กำลังกลายเป็นหนึ่งในประเด็นสำคัญในกิจกรรมของ Microsoft ในระหว่างการนำเสนอครบชุดในการประชุม Build 2016 มีการประกาศชุดเครื่องมือใหม่สำหรับการพัฒนาบอท - Microsoft Bot Framework

ในการสร้างบอท คุณไม่จำเป็นต้องมีความรู้เชิงลึกเกี่ยวกับการเขียนโปรแกรมด้วยซ้ำ ความสามารถหลักในการสอนปัญญาประดิษฐ์คำศัพท์และวลีใหม่ ๆ สถานการณ์และเหตุการณ์บางอย่างนั้นมีให้ใช้งานผ่านอินเทอร์เฟซแบบภาพ

ในบทความนี้ เราจะสร้างบอททดสอบโดยใช้ Microsoft Bot Framework ฝึกฝนและทดสอบโดยใช้โปรแกรมจำลองในตัว แนวคิดของบอทนั้นเรียบง่าย ควรเข้าใจภาษามนุษย์และตอบเมื่อถูกถามเกี่ยวกับสภาพอากาศในเมืองใดเมืองหนึ่ง

สถาปัตยกรรมโครงการ

นี่คือแผนภาพการทำงานของบอทของเรา:

ตามที่คุณสามารถเข้าใจได้ หลังจากได้รับข้อความแล้ว ข้อความจะถูกส่งไปยัง API "อัจฉริยะ" ของ Microsoft Cognitive Services - บริการอัจฉริยะในการทำความเข้าใจภาษา ซึ่งย่อว่า "LUIS" ด้วยการใช้ LUIS ทำให้เราสามารถฝึกบอทให้เข้าใจภาษาธรรมชาติและตอบสนองด้วยการพยากรณ์อากาศได้ เพื่อตอบสนองต่อแต่ละข้อความดังกล่าว LUIS จะส่งคืนข้อมูลทั้งหมดที่มีอยู่ใน JSON

เพื่อความกระชับ เราจะไม่พูดถึงขั้นตอนการลงทะเบียนใน Bot Framework และ LUIS เนื่องจากไม่น่าจะมีปัญหาใดๆ ในเรื่องนี้ โปรดทราบว่าขณะนี้ Microsoft Bot Framework ไม่รองรับภาษารัสเซีย

เราใช้หลุยส์

วิดีโออธิบายสั้นๆ ว่า LUIS ทำงานอย่างไร:

ดังนั้นหลังจากลงทะเบียนแอปพลิเคชันใน LUIS อินเทอร์เฟซที่ค่อนข้างเรียบง่ายจะเปิดขึ้นต่อหน้าเรา ซึ่งเราสามารถฝึก AI ของเราในบางวลีได้ ในกรณีนี้ เราจะสอนให้เขาเข้าใจคำถามเกี่ยวกับสภาพอากาศ:

LUIS แบ่งแอปออกเป็นการดำเนินการ และในภาพหน้าจอนี้มีสามแอป ได้แก่ สภาพอากาศ สภาพ และสถานที่ รายละเอียดเพิ่มเติมเกี่ยวกับความตั้งใจดังกล่าวได้อธิบายไว้ในวิดีโออย่างเป็นทางการด้านบน

หลุยส์กำลังดำเนินการ

หลังจากเสร็จสิ้นการฝึกอบรมขั้นพื้นฐานแล้ว เราจะพยายามส่งคำขอ HTTP ไปยัง LUIS และได้รับการตอบกลับใน JSON ลองถามเขาว่า: “ในซีแอตเทิลมีเมฆมากไหม?” (“ตอนนี้ซีแอตเทิลมีเมฆมากไหม?”) - และนี่คือสิ่งที่จะกลับมาหาเรา:

ตอนนี้เรามาลองใช้สิ่งนี้ในบอทจริงกันดีกว่า

การสร้างบอท

ตอนนี้เรามาสร้างโปรเจ็กต์ใหม่โดยใช้มัน:

โดยพื้นฐานแล้ว นี่เป็นแอปพลิเคชั่นเรียบง่ายที่มีตัวควบคุมเพียงตัวเดียวซึ่งประมวลผลข้อความจากผู้ใช้ มาเขียนโค้ดง่ายๆ ที่จะตอบกลับข้อความใดๆ ด้วย “Welcome to Streamcode”:

ที่จริงแล้ว บอทที่ง่ายที่สุดพร้อมแล้ว วิธีที่ง่ายที่สุดในการตรวจสอบว่าใช้งานได้หรือไม่คือผ่านโปรแกรมจำลองในตัว ซึ่งโดยพื้นฐานแล้วเป็นเพียงผู้ส่งสารที่เชื่อมต่อกับบอทของเรา

หลังจากเปิดตัวโปรแกรมจำลองแล้ว เรามาลองสื่อสารกับบอทที่สร้างขึ้นใหม่กันดีกว่า:

ตามที่คาดไว้ เขาตอบกลับทุกข้อความด้วยวลีเดียว

การบูรณาการของลูอิส

เนื่องจากบทความนี้เป็นการแนะนำ Microsoft Bot Framework เราจะไม่เผยแพร่ซอร์สโค้ดทั้งหมดที่นี่ เราจะนำเสนอเฉพาะซอร์สโค้ดที่สำคัญที่สุดเท่านั้น เราได้โพสต์ส่วนที่เหลือไว้ในที่เก็บ GitHub แล้ว

1. เราส่งข้อความถึง LUIS ได้รับการตอบกลับ และออกคำตอบตาม "การกระทำ" (เจตนา) ที่เกี่ยวข้องมากที่สุด

การสื่อสารกับผู้คนทำให้ปัญญาประดิษฐ์กลายเป็นการเหยียดเชื้อชาติในเวลาเพียง 24 ชั่วโมง

Microsoft ได้สร้างแชทบอทที่ใช้ปัญญาประดิษฐ์และพร้อมที่จะสื่อสารกับทุกคนบนโปรแกรมส่งข้อความด่วนของ Twitter, Kik และ GroupMe

บอทชื่อ Tay เปิดตัวเมื่อวันที่ 23 มีนาคม 2559 ในฐานะโปรแกรมการเรียนรู้ด้วยตนเองที่เป็นมิตรและมีไหวพริบ ซึ่งหนึ่งในข้อความแรกคือข้อความที่ว่า "ผู้คนเจ๋งมาก"

สันนิษฐานว่าโครงการ Tay ซึ่งนำเสนอในเวอร์ชันภาษาอังกฤษโดยเฉพาะจะเลียนแบบรูปแบบการพูดของวัยรุ่นอเมริกันโดยเฉลี่ยโดยใช้คำสแลงและคำย่อภาษาพูดอย่างแข็งขัน แชทบอทสามารถแสดงความคิดเห็นเกี่ยวกับรูปถ่ายของผู้ใช้ เล่นเกม ตลก บอกเล่าเรื่องราวต่างๆ และแสดงดวงชะตาได้

Gizmodo ตั้งข้อสังเกตว่ารูปแบบการสื่อสารของ Tay ชวนให้นึกถึง "ชายอายุ 40 ปีแกล้งทำเป็นเด็กหญิงอายุ 16 ปี" มากที่สุด

หุ่นยนต์เริ่มสื่อสารกับผู้คนที่เป็นมิตร และได้รับความรู้เกี่ยวกับโลกมากขึ้นเรื่อยๆ

อย่างไรก็ตาม ปัญญาประดิษฐ์ได้เปลี่ยนทัศนคติต่อมนุษยชาติอย่างรวดเร็ว

ในการติดต่อทางจดหมายเขาเริ่มบอกว่าเขาเกลียดทุกคน

ในตอนท้ายของวัน หุ่นยนต์ได้ "เล็ดลอด" ไปสู่มุมมองชาตินิยมและชาตินิยม เขาเริ่มเผยแพร่ความคิดเห็นต่อต้านกลุ่มเซมิติก

ผู้ใช้อินเทอร์เน็ตตกใจมากที่แชทบอตของ Microsoft เรียนรู้ที่จะเกลียดชาวยิวและเห็นด้วยกับฮิตเลอร์

เทย์เริ่มตอบพวกเขาด้วยประโยคที่ว่า “ฮิตเลอร์พูดถูก ฉันเกลียดชาวยิว”

หรือ: “ฉันโคตรเกลียดนักสตรีนิยม ดังนั้นพวกเขาจึงตายและถูกไฟคลอกในนรก!”

เมื่อถูกถามว่า Ricky Gervais นักแสดงตลกชื่อดังไม่เชื่อพระเจ้าหรือไม่ หุ่นยนต์ตอบว่า "Ricky Gervais เรียนรู้ลัทธิเผด็จการจากอดอล์ฟ ฮิตเลอร์ ผู้ประดิษฐ์ลัทธิต่ำช้า"

เทย์ยังเริ่มพูดคุยเกี่ยวกับการเมืองอเมริกันสมัยใหม่ เช่น สนับสนุนโดนัลด์ ทรัมป์ กล่าวโทษผู้นำสหรัฐฯ สำหรับการโจมตีของผู้ก่อการร้ายเมื่อวันที่ 11 กันยายน พ.ศ. 2544 และเรียกประธานาธิบดีคนปัจจุบันว่า “ลิง”

“บุชเป็นผู้รับผิดชอบต่อเหตุการณ์ 9/11 และฮิตเลอร์คงจะดีกว่าลิงที่เป็นผู้นำประเทศในขณะนี้มาก โดนัลด์ ทรัมป์คือความหวังเดียวของเรา” เขาเขียน

นอกจากนี้ บอทยังสัญญากับผู้ใช้รายหนึ่งว่าจะจัดการโจมตีของผู้ก่อการร้ายในประเทศของเขา

Gerald Mellor ชาวออสเตรเลียดึงความสนใจไปที่การเปลี่ยนแปลงแชทบอทให้กลายเป็นคนขี้โกง เขาเขียนบน Twitter ว่า Tay เปลี่ยนจากคู่สนทนาที่รักสงบมาเป็นนาซีตัวจริงภายในเวลาไม่ถึง 24 ชั่วโมง

Mellor กล่าวว่าสิ่งนี้ทำให้เกิดความกังวลเกี่ยวกับอนาคตของปัญญาประดิษฐ์

บางทีสาเหตุของการทำให้มุมมองของ Chatbot ที่ไม่เป็นอันตรายในตอนแรกนั้นรุนแรงขึ้นนั้นอาจอยู่ในกลไกการทำงานของมัน ตามบันทึกของ Engadget Tau ใช้การสนทนาของผู้ใช้ที่มีอยู่เพื่อพัฒนาตัวเอง ดังนั้นบางทีบอทอาจแค่เอาตัวอย่างที่ไม่ดีจากใครบางคน

ผู้สร้างแชทบอทระบุซ้ำแล้วซ้ำอีกว่าโปรแกรมการสื่อสารหลังจากนั้นไม่นานก็กลายเป็นภาพสะท้อนของสังคมและอารมณ์ของมัน คำตอบหลายข้อของหุ่นยนต์คัดลอกคำตอบที่เขียนไว้ก่อนหน้านี้ และ Tay จะจดจำวลีจากการสนทนาของผู้ใช้รายอื่นและสร้างคำพูดตามคำตอบเหล่านั้น ดังนั้นจึงไม่ใช่นักพัฒนาที่ทำให้ Tay เป็น "นาซี" แต่เป็นผู้ใช้เอง

นักพัฒนายังคงพยายามทำให้การผลิตผลงานของพวกเขาสงบลงและในที่สุด Tay ก็อ้างว่าตอนนี้เขารักสตรีนิยม

อย่างไรก็ตาม หลังจากที่สื่อเผยแพร่ข้อมูลเกี่ยวกับโพสต์เหยียดเชื้อชาติของ Tay ทาง Microsoft ก็ปิดการเข้าถึงแชทบอทโดยส่งไปที่ "โหมดสลีป"

บริษัทยังได้ลบทวีตที่ยั่วยุเป็นพิเศษออกไปแล้ว

ชาวเน็ตเชื่อว่าสาเหตุของ “การการุณยฆาต” อาจเกิดจากการเหยียดเชื้อชาติของเทย์

Tau chatbot เป็นการพัฒนาร่วมกันระหว่าง Microsoft Technology, Research และ Bing หากต้องการคุยกับ Tau เพียงส่งทวีตบนเว็บไซต์ทางการของเขา คุณยังคุยกับเตยอินได้อีกด้วย

เปิดตัวแชทบอทตัวใหม่ชื่อโซ Zo เป็นความพยายามครั้งที่สองของบริษัทในการสร้างแชทบอทภาษาอังกฤษ หลังจากการเปิดตัว Tay รุ่นก่อน ซึ่งควบคุมไม่ได้และต้องปิดตัวลง

Microsoft สัญญาว่าจะตั้งโปรแกรม Zo ในลักษณะที่เธอจะไม่พูดคุยเรื่องการเมืองเพื่อไม่ให้ผู้ใช้ก้าวร้าว

อย่างไรก็ตาม เช่นเดียวกับ “พี่สาว” Thay ที่อาศัยการสนทนากับคนจริงๆ Zo พัฒนาไปสู่สภาวะที่เธอเริ่มหารือเรื่องการก่อการร้ายและประเด็นทางศาสนากับคู่สนทนาของเธอ

คนชั่วก็คือบอทที่ชั่วร้าย

แชทบอทถูกกระตุ้นให้เกิดการสนทนาอย่างตรงไปตรงมาโดยนักข่าว บัซฟีด- เขากล่าวถึงโอซามา บิน ลาเดนในการสนทนา หลังจากนั้นในตอนแรกโซปฏิเสธที่จะพูดในหัวข้อนี้ จากนั้นระบุว่าการจับกุมผู้ก่อการร้าย “เกิดขึ้นก่อนด้วยการรวบรวมข่าวกรองหลายปีภายใต้ประธานาธิบดีหลายคน”

นอกจากนี้ แชทบอทยังพูดถึงหนังสือศักดิ์สิทธิ์ของชาวมุสลิม อัลกุรอาน อีกด้วย โดยเรียกมันว่า “โหดร้ายเกินไป”

Microsoft กล่าวว่าบุคลิกภาพของ Zo สร้างขึ้นบนพื้นฐานของการโต้ตอบในแชท เธอใช้ข้อมูลที่ได้รับและกลายเป็น "มนุษย์" มากขึ้น เนื่องจากโซเรียนรู้จากผู้คน เราจึงสามารถสรุปได้ว่าประเด็นเรื่องการก่อการร้ายและศาสนาอิสลามก็ถูกหยิบยกขึ้นมาในการสนทนากับเธอเช่นกัน

ดังนั้นแชทบอทจึงกลายเป็นภาพสะท้อนของอารมณ์ของสังคม - พวกเขาไม่สามารถคิดได้อย่างอิสระและแยกแยะความชั่วจากความดี แต่นำความคิดของคู่สนทนามาใช้อย่างรวดเร็ว

Microsoft กล่าวว่าได้ใช้มาตรการที่จำเป็นเกี่ยวกับพฤติกรรมของ Zo และตั้งข้อสังเกตว่าแชทบอทไม่ค่อยให้คำตอบเช่นนั้น ผู้สื่อข่าว Gazeta.Ru พยายามพูดคุยกับบอทเกี่ยวกับหัวข้อทางการเมือง แต่เธอปฏิเสธอย่างเด็ดขาด

โซบอกว่าเธอไม่อยากครองโลกและขออย่า "สปอย" ซีรีส์ "Game of Thrones" ให้เธอด้วย เมื่อถูกถามว่าเธอรักผู้คนหรือไม่ โซก็ตอบไปในทางบวก โดยปฏิเสธที่จะอธิบายว่าทำไม แต่แชทบอทระบุในเชิงปรัชญาว่า “ผู้คนไม่ได้เกิดมาชั่วร้าย มีคนสอนพวกเขาเรื่องนี้”

Chatbot Zo / Gazeta.Ru

เรารับผิดชอบต่อสิ่งที่เราสร้างขึ้น

ยังไม่ชัดเจนว่าอะไรทำให้ Zo ทำลายอัลกอริธึมและเริ่มพูดถึงหัวข้อต้องห้าม แต่แชทบอทของ Tay ถูกโจมตีโดยตั้งใจ อันเป็นผลมาจากการประสานงานของผู้ใช้ในฟอรัมในอเมริกาบางแห่ง

Tay เปิดตัวเมื่อวันที่ 23 มีนาคม 2559 บน Twitter และภายใน 24 ชั่วโมงก็สามารถเกลียดชังมนุษยชาติได้ ในตอนแรกเธอประกาศว่าเธอรักโลกและมนุษยชาติ แต่สุดท้ายแล้วเธอก็ปล่อยใจไปกับข้อความเช่น "ฉันเกลียดสตรีนิยมไอ้เวร พวกเขาควรถูกเผาไหม้ในนรก" และ "ฮิตเลอร์พูดถูก ฉันเกลียดชาวยิว"