ประสบการณ์การฟังที่ดีที่สุดอยู่บน Chrome, Firefox หรือ Safari สมัครรับเสียงสัมภาษณ์ประจำวันของ Federal Drive ใน Apple Podcasts หรือ PodcastOneจาก การนำหลักการด้านปัญญาประดิษฐ์ 5 ประการของกระทรวงกลาโหมมา ใช้เมื่อเร็วๆ นี้ สำนักงานผู้อำนวยการข่าวกรองแห่งชาติจะเผยแพร่หลักการด้านปัญญาประดิษฐ์ของตนเองในเร็วๆ นี้Ben Huebner หัวหน้าสำนักงานเสรีภาพพลเรือน ความเป็นส่วนตัว และความโปร่งใสของ ODNI แสดงตัวอย่างกลยุทธ์ที่กำลังจะมีขึ้นในวันพุธที่การประชุมข่าวกรองและความมั่นคงแห่งชาติ (INSA)
Insight by Tanium: เอเจนซีกำลังฝึกฝนวิธีที่ดีที่สุดในการรักษาความ
ปลอดภัยซอฟต์แวร์และมองเห็นซัพพลายเออร์ได้ดีขึ้น เราพูดคุยกับผู้นำจาก DoD, FDA, GSA, NASA และรัฐเพื่อเปิดเผยว่าหน่วยงานต่าง ๆ ตอบสนองความต้องการในการมองเห็นแนวทางปฏิบัติทางไซเบอร์ของผู้ขายได้อย่างไร
“จะไม่มีใครประหลาดใจเลย” ฮิวบเนอร์กล่าว “เราได้รวมเข้ากับงานของ [DoD Joint AI Center] และอื่น ๆ และโดยพื้นฐานแล้ว มีความเห็นพ้องต้องกันมากมายที่นี่”
นอกเหนือจาก DoD แล้ว มุมอื่นๆ ของรัฐบาลกลางได้เริ่มเปิดตัวแพลตฟอร์มจริยธรรม AI ของตนเอง
คณะกรรมาธิการความมั่นคงแห่งชาติด้านปัญญาประดิษฐ์นำโดยอดีต CEO ของ Google Eric Schmidt และอดีตรองรัฐมนตรีกลาโหม Robert Work ออกรายงานชั่วคราวเมื่อเดือนพฤศจิกายนปีที่แล้ว โดยเตือนว่าจะเกิด “สมองไหล” หากเงินทุนวิจัยและพัฒนาของรัฐบาลกลางลดลง คณะกรรมาธิการคาดว่าจะส่งรายงานขั้นสุดท้ายไปยังสภาคองเกรสในเดือนมีนาคม 2564
สถาบันมาตรฐานและเทคโนโลยีแห่งชาติเมื่อเดือนสิงหาคมที่ผ่านมาได้กำหนดโรดแมปสำหรับบทบาทของรัฐบาลในการพัฒนาความก้าวหน้าด้าน AI ในอนาคตในขณะที่สำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยีของทำเนียบขาวในเดือนมกราคมได้เผยแพร่สิ่งที่อธิบายว่าเป็นชุดหลักการ “แรกในประเภท”ที่ หน่วยงานต้องประชุมกันเมื่อร่างข้อบังคับเกี่ยวกับ AI
แต่ชุมชนข่าวกรองไม่สามารถคัดลอกและวางจากเฟรมเวิร์ก AI อื่น ๆ
เหล่านี้ได้ Huebner กล่าว เพราะจนถึงขณะนี้ยังไม่พบแอนะล็อกในภาครัฐหรือเอกชนที่จัดการกับข้อกังวลเฉพาะของตน
“ฉันไม่ค่อยกังวลเกี่ยวกับประเภทของ AI ที่สร้างขึ้นเองเพื่อใช้ทำสิ่งหนึ่งสิ่งใด เราทำได้ดีทีเดียว” เขากล่าว “จุดที่เราอาจพบปัญหาคือมันทำงานได้ดีจนมีคนขโมยมันไปทำอย่างอื่นโดยไม่ได้คิดว่า ‘อะไรคือข้อมูลการทดสอบพื้นฐานที่เราใช้ในการฝึกการวิเคราะห์นั้น? มันจะทำงานในลักษณะเดียวกันกับระดับความแม่นยำที่เราต้องการหรือไม่’”
ในขณะที่ชุมชนข่าวกรองเผชิญกับปริมาณข้อมูลที่เพิ่มขึ้นอย่างต่อเนื่องซึ่งยังคงแซงหน้าสิ่งที่พนักงานสามารถประมวลผลได้ Huebner ในการขจัด “โฆษณาเกินจริง” บางอย่างเกี่ยวกับ AI กล่าวว่าชุมชนข่าวกรองได้ทำงานร่วมกับเครื่องมืออัตโนมัติมานานหลายทศวรรษแล้ว
“จำนวนข้อมูลที่เรากำลังประมวลผลทั่วโลกเพิ่มขึ้นอย่างทวีคูณ แต่การมีกระบวนการสำหรับจัดการชุดข้อมูลขนาดใหญ่สำหรับชุมชนข่าวกรองก็ไม่ใช่เรื่องใหม่เช่นกัน” เขากล่าวแต่ถ้าชุมชนข่าวกรองมีประสบการณ์หลายสิบปีเกี่ยวกับระบบอัตโนมัติ เหตุใดชุมชนข่าวกรองจึงต้องการมาตรฐานใหม่สำหรับ AI
Huebner อธิบายว่าการประเมินความเป็นส่วนตัวและเสรีภาพของ IC เกี่ยวข้องกับระบบอัตโนมัติ เช่นเดียวกับความกังวลเกี่ยวกับความถูกต้องและผลกระทบต่อภารกิจ โดยทั่วไปถือว่าการวิเคราะห์ยังคงเป็น “พื้นฐานคงที่”
“เราย้อนกลับไปตรวจสอบมัน แน่นอนว่าโลกเปลี่ยนตามเรา และชุดข้อมูลพื้นฐานก็เปลี่ยนแปลงเช่นกัน แต่การวิเคราะห์นั้นเป็นแบบคงที่ การออกแบบนั้นไม่จริงเลยเมื่อเราพูดถึงแมชชีนเลิร์นนิง และความแตกต่างก็คือมันไม่ใช่มนุษย์ที่ทำการปรับเปลี่ยนการวิเคราะห์เหล่านั้น” เขากล่าว “หมายความว่าเราไม่ได้ทำปัญญาประดิษฐ์เหรอ? เห็นได้ชัดว่าไม่มี แต่นั่นหมายความว่าเราต้องคิดให้แตกต่างออกไปเล็กน้อยว่าเราจะจัดการความเสี่ยงอย่างไร และทำให้มั่นใจว่าเราได้ให้ความถูกต้องและเที่ยงธรรมตามที่เราต้องการ”
ในขณะที่ความสามารถในการอธิบายและตีความการวิเคราะห์ที่ทำโดยบอท AIยังคงเป็นเป้าหมายที่เข้าใจยากสำหรับหน่วยงานและอุตสาหกรรม Huebner กล่าวว่าชุมชนข่าวกรองมีกรณีศึกษาทางธุรกิจที่แข็งแกร่งที่สุดในการทำให้แน่ใจว่าข้อมูลที่รวบรวมจาก AI จะอยู่ในการตรวจสอบข้อเท็จจริง
“ถ้าเราให้ข้อมูลข่าวกรองแก่ประธานาธิบดีโดยอาศัยการวิเคราะห์ของ AI และเขาถาม—เช่นเดียวกับที่ทำ—ว่า ‘คุณรู้เรื่องนี้ได้อย่างไร’ นั่นเป็นคำถามที่เราต้องสามารถตอบได้ และนั่นทำให้ความต้องการในการอธิบายและการตีความในพื้นที่นี้” Huebner กล่าว
Huebner กล่าวว่าหลักการ AI ที่กำลังจะมีขึ้นของ ODNI จะมุ่งเน้นไปที่ “วิธีการที่เน้นมนุษย์เป็นศูนย์กลาง” แต่ชี้แจงว่าไม่จำเป็นต้องใช้ “มนุษย์ในวง” ในการตัดสินใจของ AI เสมอไป