สแล็คตกี้ต่อตีความเร่งในนโยบายการฝึกอาวตรง
ที่จุดเริ่มต้นของปัญหาต่อเนื่องเกี่ยวกับวิธีที่เทคโนโลยีใหญ่เอาข้อมูลจากบุคคลและธุรกิจในการฝึกบริการ AI ปรากฏกระแสในหมู่ผู้ใช้ Slack ที่โกรธอย่างแรงเกี่ยวกับวิธีที่แพลตฟอร์มแชทที่เป็นของ Salesforce ได้ก้าวไปด้วยวิสันต์ AI ของตน
บริษัทนี้เช่นเด่นอีกบริษัทหนึ่ง กำลังใช้ข้อมูลผู้ใช้ของตนเพื่อฝึกบริการ AI ใหม่บางส่วน แต่เราพบว่าหากคุณไม่ต้องการให้ Slack ใช้ข้อมูลของคุณ คุณต้องส่งอีเมลถึงบริษัทเพื่อยกเลิก
และเงื่อนไขการจับคู่นั้นถูกซ่อนอยู่ในนั้นที่ดูเหมือนจะเป็นนโยบายความเป็นส่วนตัวที่ล้าสมัยและสับสนที่ไม่มีใครสนใจ นั้นเป็นเหตุการณ์กับ Slack จนกระทั่งมีบุคคลตกใจนำมันขึ้นในเว็บไซต์ชุมชนที่เป็นที่นิยมอย่างมากในนวัตกรรมและจากนั้นโพสต์นั้นได้รับการแชร์…ซึ่งเป็นสิ่งที่เกิดขึ้นที่นี่
นี่เป็นจุดเริ่มต้นของเมื่อคืนเมื่อทราบว่าบน Hacker News ยื่นปัญหาเกี่ยวกับวิธี Slack ฝึกบริการ AI ของตน ผ่านลิงก์ตรงถึงหลักการความเป็นส่วนตัว ไม่จำเป็นต้องมีความคิดเห็นเพิ่มเติม โพสต์นั้นเริ่มต้นการสนทนายาวลงไป—และสิ่งที่เหมือนข่าวสำหรับผู้ใช้ Slack ปัจจุบัน—ว่า Slack มีการตั้งค่าให้ผู้ใช้รวมช่องในการฝึก AI ด้วยค่าเริ่มต้น และคุณต้องส่งอีเมลไปยังที่อยู่ที่ระบุเพื่อยกเลิก
การสอดคล้อง Hacker News นั้นกระตุ้นการสนทนาและ คำถามหลากหลายบนแพลตฟอร์มอื่น ๆ: มีผลิตภัณฑ์ใหม่ชื่อ ‘Slack AI’ ที่ใช้ให้ผู้ใช้ค้นหาคำตอบและสรุปสายการสนทนาระหว่างเส้น รวมถึงสิ่งอื่น ๆ แต่ทำไมไม่มีการกล่าวถึงชื่อแบรนด์ดังนี้ในหน้าหลักการความเป็นส่วนตัวนั้นอย่างไร แม้แต่เพื่อที่จะยืนยันถึงหน้านโยบายความเป็นส่วนตัวนั้นมีผลสำหรับมันหรือไม่ได้ไปทำอะไรสำหรับมัน? และทำไม Slack อ้างอิงทั้ง ‘โมเดลโลกภาพ’ และ ‘โมเดล AI’?
ระหว่างคนที่สับสนเกี่ยวกับที่ตั้งความเป็นส่วนตัว AI ของ Slack และคนที่ตกใจและโกรธกับความคิดของที่ส่งอีเมลเพื่อยกเลิก—ในบริษัทที่เล็กแสดงที่หย่องให้ภูมิเสน่ห์ว่า “คุณควบคุมข้อมูลของคุณ” Slack ไม่ดีโอกาส
ความตกใจอาจเป็นเหตุใหม่ แต่ข้อตกลงไม่ใช่ ตามหน้าที่บนบอกลับของอินเทอร์เน็ต ข้อตกลงถูกใช้ในช่วงอย่างน้อยอย่างเดียวกันกับเดือนกันยายน 2566 (เราได้ถามบริษัทเพื่อยืนยัน)
ตามนโยบายความเป็นส่วนตัว Slack ใช้ข้อมูลลูกค้าเพื่อฝึก ‘โมเดลโลกภาพ’ ซึ่ง Slack ใช้ให้พลัสกับคำแนะนำแชแนลและผลการค้นหา Slack บอกเราว่าการใช้ข้อมูลของบริษัทมีขีด จำกัดเฉพาะ
‘Slack มีโมเดลเริ่มต้นที่ตั้งหลังสำหรับสิ่งที่คลังแชแนลและยิ่งของการแนะว่าและผลการค้นหา เราไม่ก่อสร้างหรือฝึกโมเดลเหล่านั้นในที่จะเรียนรู้ จดจำ หรือสามารถที่จะสร้างส่วนหนึ่งของข้อมูลของลูกค้า เสียง” โฆษกบริษัทแจ้งให้ TechCrunch อย่างไรก็ตาม นโยบายไม่ได้อธิบายขอบเขตโดยรวมและแผนของบริษัทสำหรับการฝึกโมเดล AI
ในข้อตกลงของ Slack บอกว่าหากลูกค้าได้ไปออกจากการฝึกข้อมูล เขาก็ยังได้ประโยชน์จาก ‘โมเดล AI / ML ที่ได้รับการอบรมอย่างเฉลี่ยทั่วโลกของบริษัท เมื่อนั้นในกรณีนั้น จากนั้นมันไม่ชัดเจนโฉนไกบริษัท กำลังใช้ข้อมูลของลูกค้าเพื่อให้พลัสคุณสมบัติเช่นคำแนะนำไซยล
บริษัทยังกล่าวว่า ข้อตกลงระบุว่าไม่ได้ใช้ข้อมูลลูกค้าเพื่อฝึก AI ของ Slack
“Slack AI เป็นผลิตภัณฑ์ที่ซื้อลอยกันซึ่งใช้ Large Language Models (LLMs) แต่ไม่ฝึกเหล่านั้น LLMs บนข้อมูลลูกค้า Slack AI อาจใช้ LLMs ตั้งหลังภายในระบบผู้ให้บริการ AWS ของ Slack ดังนั้นข้อมูลลูกค้ายังเหลือแถวและไม่ได้รับการแจกจ่ายกับผู้ผลิต LLM แน่ใจว่าข้อมูลลูกค้าอยู่ในการควบคุมนั้นและใช้ไปหมดให้องค์กรนั้นเท่านั้น,” โฆษกบอก
บางส่วนของความสับสนน่าจะถูกทำการแก้ไขเร็วขึ้นหรือไม่ก็ตาม ในการตอบรับกับอันตรายหนึ่งใน Threads จากวิศวกรและนักเขียน Gergely Orosz PLC Slack ให้ข้อบ่งชี้ว่าบริษัทต้องอัพเดตหน้าเพื่อสะท้อน “ว่าหลักการที่เป็นความเป็นส่วนตัวเหล่านี้เป็นเกม Slack AI”
Maurer เพิ่มเข้าไปว่ากฎข้อนี้ถูกเขียนขณะที่บริษัทไม่มี Slack AI และกฎเหล่านี้ประกอบเกี่ยวของบริษัทที่เป็นมิตรการค้นหาและการแนะนำ จะคุ้มค่าตรวจสอบเงื่อนไขสำหรับการอัพเดตในอนาคต จากการมองข้อตกลงที่มีสับสนเกินไปเกี่ยวกับสิ่งที่ Slack กำลังทำกับ AI ของตน
ปัญหาที่เกิดขึ้นที่ Slack คือการเตือนที่โดดเด่นว่าในโลกตัดสินใจอย่างรวดเร็วของการพัฒนา AI สิทธิส่วนบุคคลไม่ควรได้รับการพิจารณาหลังตาและข้อตกลงของบริษัทควรที่จะระบุถึงวิธีการใช้ไปหรือเมื่อข้อมูลถูกใช้หรือไม่