Jump to content

Google-მა წარადგინა სისტემები საკუთარი TPU-ებით, რომლებზეც ხდება Gemini და Apple Intelligence AI მოდელების სწავლება


Magdalena

Recommended Posts

Google-ის შტაბ-ბინის დიდ ლაბორატორიაში, რომელიც კალიფორნიაში, Mountain View-ში მდებარეობს, განთავსებულია სერვერების ასობით თაროები, რომლებიც ასრულებენ სხვა ამოცანებGoogle Cloud-ის საძიებო სისტემის ან სამუშაო დატვირთვის გარდა. აქ იტესტება თავად Google-ის მიერ შემუშავებული Tensor Processing Units (TPU). CNBC-ის ჟურნალისტებმა მოახერხეს ამ ლაბორატორიის დათვალიერება. 

image.jpeg 

ფოტოს წყარო: alban / unsplash.com 

Google-ის TPU-ები გამოჩნდა 2015 წელს და ხელმისაწვდომი გახდა ქლაუდ მომხმარებლებისთვის 2018 წელს - ისინი გამოიყენება Apple Intelligence-ისა და Google Gemini-ის მოდელების მოსამზადებლად. Google იყო პირველი ქლაუდ პროვაიდერი, რომელმაც შექმნა საკუთარი ხელოვნური ინტელექტის ჩიპები - Amazon-მა Inferentia დააანონსა მხოლოდ სამი წლის შემდეგ, ხოლო Microsoft-მა - Maia 2023 წლის ბოლოს. თუმცა ეს უპირატესობა ვერ დაეხმარა Google-, გამხდარიყო ლიდერი გენერაციული ხელოვნური ინტელექტის სფეროში: Gemini გამოვიდა OpenAI ChatGPT-გამოჩენიდან ერთ წელზე მეტი ხნის შემდეგ. ამავდროულად, ხელოვნური ინტელექტის სფეროში არსებულმა შეთავაზებებმა ხელი შეუწყო Google Cloud- იმპულსის მოპოვებაში: კომპანიის ამ სეგმენტმა აჩვენა ზრდა 29%-ით და კვარტალურმა შემოსავალმა პირველად გადააჭარბა10 მლრდ აშშ დოლარს Alphabet-ის ბოლო კვარტალური ანგარიშის მიხედვით. 

Google-ს საკუთარი ჩიპის შექმნის იდეა მაშინ გაუჩნდა, როდესაც 2014 წელს დაფიქრდა რა რესურსები უნდა ჰქონოდათ, რათა კომპანიის სერვისების ყველა მომხმარებელს შეძლებოდა ხმოვანი ინტერფეისის გამოყენება დღეში მინიმუმ 30 წამის განმავლობაში. როგორც გაირკვა მონაცემთა ცენტრებში კომპიუტერების რაოდენობის გაორმაგება იყო საჭირო. Google TPU-მ ხელი შეუწყო ზოგიერთ ამოცანის ეფექტურობის 100-ჯერ გაუმჯობესებას. კომპანია კვლავ იყენებს როგორც ტრადიციულ ცენტრალურ პროცესორებს, ასევე Nvidia GPU-ებს. მაგრამ Google TPU არის სპეციალური დანიშნულების ინტეგრირებული სქემა (ASIC), რომელიც შექმნილია მხოლოდ კონკრეტული ტიპის ამოცანისთვის. კომპანიას აქვს კიდევ ერთი ასეთი ჩიპი - Video Coding Unit და იგი გამოიყენება ვიდეოს დასამუშავებლად. 

image.jpeg 

Google-მა, Apple-ის მაგალითზე, დაიწყო საკუთარი ჩიპების გამოყენება საკუთარ მოწყობილობებში: Pixel 9 სმარტფონებში ეს არის მეოთხე თაობის Tensor G4 პროცესორი, ხოლო Pixel Buds Pro 2 ყურსასმენში ეს გახლავთ Tensor A1. მაგრამ Google-ის დიდი განმასხვავებელია მისი სასერვერო TPU, რომელსაც ახლა აქვს ბაზრის 58% წილი საკუთარ ქლაუდ AI ამაჩქარებლებს შორის. Nvidia-ს GPU-ები უფრო მოქნილი, მაგრამ უფრო ძვირი და დეფიციტურია დღევანდელ გარემოში, როდესაც ხელოვნური ინტელექტის ბუმმა კომპანიის აქციები რეკორდამდე მიიყვანა და ახლა ის Apple-სა და Microsoft-თან იბრძვის, რომ გახდეს მსოფლიოში ყველაზე ძვირადღირებული საჯარო სავაჭრო კომპანია. Google-ის TPU-ს ნამდვილი გამოცდა ელის მომავალ წელს, როდესაც გამოვა Apple Intelligence პლატფორმა გამოვა iPhone-სა და Mac-ზე. 

Nvidia-ს ამაჩქარებლების ალტერნატივის შემუშავება თითქმის წარმატებაა. პროცესი იმდენად რთული და ძვირია, რომ Google-საც კი არ შეუძლია ამის გაკეთება დამოუკიდებლად. პირველი TPU-ს დანერგვის დღიდან კომპანიამ მოითხოვა ჩიპების მწარმოებელ Broadcom-ის მხარდაჭერა, რომელიც Meta-ს ეხმარება ანალოგიური პრობლემის გადაჭრაში. სრულად განვითარებული ჩიპის დიზაინი ეგზავნება კონტრაქტორს - TSMC-ს, რომელიც აწარმოებს მსოფლიოში მოწინავე ნახევრადგამტარი პროდუქტების 92%-ს. 

image.jpeg 

Trillium. ფოტოს წყარო CNBC/Marc Ganley 

მიმდინარე წელს Google გამოუშვებს Trillium TPU-ის მეექვსე თაობას; გარდა ამისა, გასულ აპრილში კომპანიამ დააანონსა Axion, მისი პირველი ცენტრალური პროცესორი, რომელიც გამოჩნდება წლის ბოლოს. და Google არ არის პირველი აქ: Amazon-მა გამოუშვა Graviton 2018 წელს, ჩინური Alibaba- მიჰყვა ის მაგალითს 2021 წელს, ხოლო Microsoft-მა წარადგინა ჩიპი Cobalt 100 გასული წლის ნოემბერში. ყველა მათგანი დაფუძნებულია Arm არქიტექტურაზე, რომელიც უფრო მოქნილი და ენერგოეფექტურია, ვიდრე x86, რომლის ერთგულები არიან Intel და AMD. 

image.jpeg 

Axion CPU. წყარო: CNBC/Marc Ganley 

უმნიშვნელოვანესი ასპექტია ეფექტურობა: პროგნოზების მიხედვით 2027 წლისთვის AI სერვერები მოიხმარენ იმდენ ენერგიას წელიწადში, რამდენსა არგენტინა. Google-ის ბოლო გარემოსდაცვითმა ანგარიში აჩვენა, რომ კომპანიის ემისიები 2019 წლიდან 2023 წლამდე გაიზარდა 50%-ით ნაწილობრივ ხელოვნური ინტელექტი მონაცემთა ცენტრების ზრდის გამო. გაგრილების სერვერები ხელოვნური ინტელექტის სწავლებისა და გაშვებისთვის საჭიროებს წყლის უზარმაზარ მოცულობას, ამიტომ მესამე თაობის Google TPU-ის გაგრილება ხდება უშუალოდ ჩიპზე - Nvidia-მ მსგავსი სქემა გამოიყენა უახლეს Blackwell-ში. და მიუხედავად თანმდევი სირთულეებისა, Google-ის ხელოვნური ინტელექტის აღჭურვილობაზე კვლავაც დიდი მოთხოვნაა და კომპანიას ჯერ არ შეუმჩნევია მისი შესუსტება. 

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.