Bing ใช้ google และแสดงผลการค้นหาได้เร็วขึ้น 10 เท่า
สารบัญ:
- Bing ได้รับคุณสมบัติใหม่
- Microsoft กำลังใช้ FPGA ของ Intel เพื่อเพิ่มประสิทธิภาพการคำนวณ AI
- ประโยชน์หลักของ FPGA
- การใช้ FPGA เพื่อเร่งการคำนวณ AI ย้อนกลับไปในปี 2555
วีดีโอ: à¹à¸§à¸à¹à¸²à¸à¸±à¸ à¸à¸à¸±à¸à¸à¸´à¹à¸¨à¸© 2024
ฮาร์ดแวร์เฉพาะของ Microsoft สำหรับการคำนวณ AI เรียกว่า Brainwave และมันถูกสร้างขึ้นในลักษณะที่จะเรียกใช้เครือข่ายประสาทได้เร็วที่สุดเท่าที่จะเป็นไปได้
บริษัท ประกาศว่าตั้งแต่ใช้ Brainwave บริษัท จะสามารถเพิ่มประสิทธิภาพได้เร็วขึ้นสิบเท่าจาก AI ของ Bing โมเดลการเรียนรู้ของเครื่องนั้นจะเพิ่มประสิทธิภาพการทำงานของเครื่องมือค้นหา
เป้าหมายของ Microsoft ที่ควรทำผ่าน Brainwave คือการคาดการณ์ AI แบบเรียลไทม์สำหรับแอพเช่นฟีเจอร์ Bing ล่าสุด
Bing ได้รับคุณสมบัติใหม่
Microsoft ยังให้ฟีเจอร์ใหม่สองสามอย่างเช่น Bing และที่สำคัญที่สุดที่กล่าวถึงคือให้คำตอบเพิ่มเติมเกี่ยวกับคำถามเชิงปฏิบัติและการสนับสนุนสำหรับการกำหนดคำที่ไม่ได้ใช้บ่อยเมื่อผู้ใช้วางตัวชี้เมาส์ไว้เหนือพวกเขา คุณสมบัติเหล่านี้ได้รับการเติมพลังโดย Brainwave
Microsoft กำลังใช้ FPGA ของ Intel เพื่อเพิ่มประสิทธิภาพการคำนวณ AI
FPGAs เป็นผืนผ้าใบว่างเปล่าสำหรับนักพัฒนาที่จะใช้เมื่อพวกเขาต้องการปรับใช้วงจรต่าง ๆ โดยการส่งซอฟต์แวร์ใหม่ สิ่งนี้เกี่ยวข้องกับการผสมผสานระหว่างประสิทธิภาพและความสามารถในการโปรแกรม
ตอนนี้ Microsoft สามารถทำได้มากกว่าการสร้างแบบจำลองที่เร็วขึ้นด้วยฮาร์ดแวร์ บริษัท ยังสามารถสร้างระบบ AI ที่ซับซ้อนยิ่งขึ้น ตัวอย่างเช่น Turing Prototype 1 ของ Bing ปัจจุบันมีความซับซ้อนและรวดเร็วกว่าถึงสิบเท่าด้วยความสามารถในการคำนวณที่เพิ่มผ่านคลื่นสมอง
FGA ที่ปรับใช้โดย Microsoft มาพร้อมกับตัวประมวลผลสัญญาณดิจิตอลเฉพาะบนบอร์ดที่ปรับปรุงสำหรับคณิตศาสตร์ AI ที่ซับซ้อน
ประโยชน์หลักของ FPGA
ข้อได้เปรียบที่สำคัญที่สุดของ FPGAs เหนือ GPU (ซึ่งกลายเป็นตัวเลือกที่ต้องการสำหรับการคำนวณ AI) คือพวกเขาไม่จำเป็นต้องใช้การคำนวณแบบกลุ่ม
นวัตกรรมที่สำคัญช่วยให้ Microsoft ได้รับผลลัพธ์ที่ประสบความสำเร็จผ่านทาง FPGAs คือการใช้ชนิดข้อมูลทศนิยม 8 และ 9 บิตที่เพิ่มประสิทธิภาพอย่างรุนแรง
ชิป FPGA ของ Intel อนุญาตให้ Bing อ่านและวิเคราะห์เอกสารเป็นพันล้านรายการทั่วทั้งเว็บอย่างรวดเร็วและให้คำตอบที่ดีที่สุดสำหรับคำถามของคุณในเวลาไม่ถึงเสี้ยววินาที
ในความเป็นจริง FPGA ของ Intel ช่วยให้เราสามารถลดเวลาแฝงของรุ่นของเราได้มากกว่า 10 เท่าในขณะที่ยังเพิ่มขนาดรุ่นของเราขึ้น 10 เท่า
การใช้ FPGA เพื่อเร่งการคำนวณ AI ย้อนกลับไปในปี 2555
Microsoft เริ่มใช้ FPGA เพื่อเพิ่มความเร็วในการคำนวณ AI มากกว่าหกปีที่แล้วเมื่อทีม Bing เริ่มใช้ชิป ทั้งหมดนี้เป็นข่าวดีสำหรับ Intel เช่นกัน บริษัท ซื้อ Altera ซึ่งเป็นผู้ผลิต FPGA ในปี 2558 และข้อตกลง 16.7 พันล้านดอลลาร์ให้กับ Intel ด้วยพลังที่จำเป็นในการเติมเชื้อเพลิงให้กับความต้องการของ Microsoft จนถึงทุกวันนี้
เรารอคอยที่จะเห็นคลื่นสมองพร้อมใช้งานผ่าน Microsoft Azure เพื่อให้ลูกค้ามีโอกาสปรับใช้โมเดลของพวกเขา
ต่อไปนี้เป็นแนวคิดการสำรวจแฟ้มการออกแบบแฟ้มคล่องแคล่วสีน้ำเงิน - เทา
หากคุณไม่ชอบการออกแบบ File Explorer ในปัจจุบันคุณอาจต้องการตรวจสอบแนวคิด File Explorer ใหม่นี้ ดังที่คุณเห็นในภาพหน้าจอด้านล่างแนวคิดนี้เสนอ UI ที่เป็นสีเทา ความคิดที่อยู่เบื้องหลังการออกแบบใหม่นี้คือผู้ใช้ Reddit MorphicSn0w แนวคิดการออกแบบนี้ได้รับผลตอบรับค่อนข้างหลากหลาย ผู้ใช้ Windows 10 หลายคน ...
ซีพียูรุ่นที่ 10 ของ Intel ใช้ความเร็วไร้สายได้เร็วขึ้น 3 เท่า
Intel ประกาศเปิดตัวซีพียู Ice Lake รุ่นใหม่ บริษัท กำลังทำงานกับแล็ปท็อปซีพียูรุ่นที่ 10 ของ Ice Lake รุ่นแรกอยู่แล้ว
การทดสอบเกณฑ์มาตรฐานแสดงให้เห็นว่าซีพียู intel ใช้พลังงานมากกว่าตัวซีพีเอสถึง 4 เท่า
ผลการทดสอบเกณฑ์มาตรฐานใหม่ของ Blender ทำให้เอเอ็มดีต่อหน้า Intel เมื่อพูดถึงพลังงานโดยรวมที่ซีพียูใช้สำหรับงานเฉพาะ