ลดความเสี่ยงของ AI กำเนิดโดยการให้มนุษย์อยู่ในวง
เผยแพร่แล้ว: 2023-06-21“ไม่มีกรณีการใช้งานที่ยั่งยืนสำหรับ AI ที่ชั่วร้าย”
นั่นคือวิธีที่ Dr. Rob Walker ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ที่ได้รับการรับรองและรองประธานฝ่ายการตัดสินใจและการวิเคราะห์ของ Pega สรุปการอภิปรายโต๊ะกลมเกี่ยวกับ AI อันธพาลในการประชุม PegaWorld iNspire เมื่อสัปดาห์ที่แล้ว
เขาได้อธิบายความแตกต่างระหว่างอัลกอริทึมแบบทึบและแบบโปร่งใส ที่ปลายด้านหนึ่งของสเปกตรัม AI อัลกอริทึมทึบแสงจะทำงานด้วยความเร็วสูงและความแม่นยำสูง ปัญหาคือเราไม่สามารถอธิบายได้ว่าพวกเขาทำสิ่งที่พวกเขาทำได้อย่างไร นั่นก็เพียงพอที่จะทำให้พวกเขาไร้ประโยชน์ไม่มากก็น้อยสำหรับงานที่ต้องใช้ความรับผิดชอบ เช่น การตัดสินใจเกี่ยวกับการขอจำนองหรือขอสินเชื่อ เป็นต้น
ในทางกลับกัน อัลกอริทึมที่โปร่งใสนั้นมีประโยชน์ในการอธิบายได้ พวกมันมีความน่าเชื่อถือน้อยกว่า มันเหมือนเป็นการเลือกระหว่างการรักษาทางการแพทย์ที่สั่งจ่ายโดยแพทย์ที่สามารถอธิบายให้คุณฟังได้ หรือเครื่องมือที่อธิบายไม่ได้แต่น่าจะถูกต้องมากกว่า เป็นทางเลือก — และไม่ใช่เรื่องง่าย
แต่ท้ายที่สุดแล้ว การมอบการตัดสินใจทั้งหมดให้กับเครื่องมือ AI ที่ทรงพลังที่สุดโดยที่มีความเสี่ยงว่าจะเป็นมิจฉาชีพ นั้นไม่ยั่งยืนอย่างแท้จริง
ในการประชุมเดียวกัน Don Schuerman ซึ่งเป็น CTO ของ Pega ได้กล่าวถึงวิสัยทัศน์สำหรับ “Autopilot” ซึ่งเป็นโซลูชันที่ขับเคลื่อนด้วย AI เพื่อช่วยสร้างองค์กรที่เป็นอิสระ “ความหวังของฉันคือเราจะมีการเปลี่ยนแปลงบางอย่างในปี 2567 ฉันคิดว่าจะต้องมีธรรมาภิบาลและการควบคุม” แน่นอน มันจะเป็นเช่นนั้น ตัวอย่างเช่น พวกเราไม่กี่คนต้องการขึ้นเครื่องบินที่มีนักบินอัตโนมัติเท่านั้นและไม่มีมนุษย์อยู่ในวง
มนุษย์ในวง
การให้มนุษย์อยู่ในวงนั้นเป็นคติประจำใจในการประชุม ซึ่งเน้นย้ำถึงความมุ่งมั่นของ Pega ที่มีต่อ AI อย่างมีความรับผิดชอบ เมื่อนานมาแล้วในปี 2560 บริษัทได้เปิดตัว Pega “T-Switch” ซึ่งช่วยให้ธุรกิจสามารถหมุนระดับความโปร่งใสขึ้นและลงในระดับเลื่อนสำหรับ AI แต่ละรุ่น “ตัวอย่างเช่น มีความเสี่ยงต่ำที่จะใช้โมเดลการเรียนรู้เชิงลึกทึบแสงที่จัดประเภทรูปภาพทางการตลาด ในทางกลับกัน ธนาคารภายใต้กฎระเบียบที่เข้มงวดสำหรับแนวทางปฏิบัติในการให้กู้ยืมที่เป็นธรรมนั้นต้องการโมเดล AI ที่โปร่งใสสูงเพื่อแสดงให้เห็นถึงการกระจายข้อเสนอสินเชื่อที่เป็นธรรม” Pega อธิบาย
อย่างไรก็ตาม AI เจนเนอเรทีฟนำความเสี่ยงในระดับอื่นมาให้คุณ ไม่น้อยไปกว่าหน้าที่ที่ต้องเผชิญหน้าลูกค้า เช่น การตลาด โดยเฉพาะอย่างยิ่ง มันไม่สนใจว่ามันกำลังพูดความจริงหรือสร้างเรื่อง (“ภาพหลอน”) ในกรณีที่ยังไม่ชัดเจน ความเสี่ยงเหล่านี้เกิดขึ้นกับการใช้งาน AI เชิงกำเนิด และไม่ได้เฉพาะเจาะจงกับโซลูชันใดๆ ของ Pega
Peter van der Putten ผู้อำนวยการ Pega AI Lab อธิบาย แต่นั่นก็อธิบายถึงปัญหาด้วย “มันสามารถพูดอะไรบางอย่างได้ จากนั้นให้คำอธิบายที่สมเหตุสมผลได้ดีมาก มันยังสามารถย้อนรอยได้อีกด้วย” กล่าวอีกนัยหนึ่ง มันสามารถกลับมาพร้อมกับการตอบสนองที่แตกต่างกัน — อาจจะดีกว่า — หากตั้งค่างานเดียวกันสองครั้ง
ก่อนงาน PegaWorld Pega ได้ประกาศ “บูสเตอร์” ที่ขับเคลื่อนด้วย AI กำเนิด 20 ตัว ซึ่งรวมถึงแชทบอทเจนเนอเรชัน AI เวิร์กโฟลว์อัตโนมัติ และการเพิ่มประสิทธิภาพเนื้อหา “ถ้าคุณดูสิ่งที่เราเปิดตัวอย่างระมัดระวัง” พัตเตนกล่าว “เกือบทั้งหมดมีมนุษย์อยู่ในวง ผลตอบแทนสูง ความเสี่ยงต่ำ นั่นคือประโยชน์ของการสร้างผลิตภัณฑ์ที่ขับเคลื่อนด้วย AI มากกว่าการให้ผู้คนเข้าถึงเทคโนโลยี AI ทั่วไป”
จากนั้น Pega GenAI จะจัดเตรียมเครื่องมือเพื่อให้บรรลุงานเฉพาะ (โดยมีโมเดลภาษาขนาดใหญ่ที่ทำงานอยู่เบื้องหลัง) ไม่ใช่แค่ผืนผ้าใบว่างเปล่าที่รอการเตือนจากมนุษย์
สำหรับบางอย่าง เช่น แชทบ็อตที่ได้รับความช่วยเหลือจาก AI เจนเนอเรชัน ความต้องการมนุษย์ในวงนั้นชัดเจนเพียงพอ “ผมคิดว่าคงต้องใช้เวลาอีกสักระยะก่อนที่หลาย ๆ บริษัทจะสบายใจที่จะวางแชทบอทโมเดลภาษาขนาดใหญ่ต่อหน้าลูกค้าโดยตรง” ชูร์แมนกล่าว “อะไรก็ตามที่ AI กำเนิดสร้างขึ้น — ผมต้องการให้มนุษย์พิจารณาสิ่งนั้นก่อนที่จะนำเสนอต่อหน้าลูกค้า”
สี่ล้านปฏิสัมพันธ์ต่อวัน
แต่การใส่มนุษย์เข้าไปในวงทำให้เกิดคำถามเกี่ยวกับความสามารถในการปรับขนาด
Finbar Hage รองประธานฝ่ายดิจิทัลของบริษัท Rabobank ซึ่งเป็นบริษัทเบเกอรี่และบริการทางการเงินของเนเธอร์แลนด์ กล่าวในที่ประชุมว่า Customer Decision Hub ของ Pega ประมวลผลการโต้ตอบ 1.5 พันล้านครั้งต่อปีสำหรับพวกเขา หรือประมาณ 4 ล้านครั้งต่อวัน หน้าที่ของฮับคือการสร้างคำแนะนำการดำเนินการที่ดีที่สุดถัดไป สร้างการเดินทางของลูกค้าแบบเรียลไทม์และทันที การดำเนินการที่ดีที่สุดลำดับต่อไปอาจเป็น เช่น การส่งอีเมลส่วนบุคคล — และ gen AI เสนอความเป็นไปได้ในการสร้างอีเมลดังกล่าวเกือบจะในทันที
แนะนำว่าอีเมลทุกฉบับต้องได้รับการอนุมัติจากมนุษย์ก่อนที่จะส่ง มีกี่อีเมล? นักการตลาดจะต้องจัดสรรเวลาเท่าใดในการอนุมัติเนื้อหาที่สร้างโดย AI
บางทีการจัดการที่ดีกว่าคือการใช้ Pega GenAI เพื่อสร้างเอกสารทางธุรกิจที่ซับซ้อนในหลากหลายภาษา ในประเด็นสำคัญของเขา Kerim Akgonul ประธานเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ได้สาธิตการใช้ AI เพื่อสร้างเวิร์กโฟลว์ที่ซับซ้อนสำหรับการขอสินเชื่อเป็นภาษาตุรกี เทมเพลตคำนึงถึงกฎทางธุรกิจทั่วโลกรวมถึงกฎข้อบังคับในท้องถิ่น
เมื่อดูผลลัพธ์แล้ว Akgonul ซึ่งเป็นชาวตุรกีเองอาจเห็นข้อผิดพลาดบางอย่าง นั่นเป็นเหตุผลที่มนุษย์จำเป็น แต่ไม่ต้องสงสัยเลยว่าการสร้าง AI บวกกับการอนุมัติของมนุษย์ดูเหมือนจะเร็วกว่าการสร้างมนุษย์ตามด้วยการอนุมัติของมนุษย์
นั่นคือสิ่งที่ฉันได้ยินจากผู้บริหาร Pega แต่ละคนที่ฉันถามเกี่ยวกับเรื่องนี้ ใช่ การอนุมัติต้องใช้เวลาและธุรกิจต่างๆ จำเป็นต้องกำหนดให้มีธรรมาภิบาล ซึ่งก็คือ “แนวทางปฏิบัติที่ดีที่สุดที่กำหนดไว้ล่วงหน้า” ในวลีของ Schuerman เพื่อให้แน่ใจว่ามีการใช้ธรรมาภิบาลในระดับที่เหมาะสม โดยขึ้นอยู่กับระดับของความเสี่ยง
สำหรับการตลาด ในบทบาทที่ต้องเผชิญหน้ากับลูกค้าเป็นหลัก ระดับการกำกับดูแลนั้นน่าจะสูง อย่างไรก็ตาม ความหวังและคำมั่นสัญญาก็คือระบบอัตโนมัติที่ขับเคลื่อนด้วย AI จะยังคงทำสิ่งต่างๆ ได้ดีขึ้นและเร็วขึ้น
รับ MarTech! รายวัน. ฟรี. ในกล่องจดหมายของคุณ
ดูข้อกำหนด
เรื่องที่เกี่ยวข้อง
ใหม่บน MarTech