Magdalena Posted August 29 Share Posted August 29 Google-ის შტაბ-ბინის დიდ ლაბორატორიაში, რომელიც კალიფორნიაში, Mountain View-ში მდებარეობს, განთავსებულია სერვერების ასობით თაროები, რომლებიც ასრულებენ სხვა ამოცანებს Google Cloud-ის საძიებო სისტემის ან სამუშაო დატვირთვის გარდა. აქ იტესტება თავად Google-ის მიერ შემუშავებული Tensor Processing Units (TPU). CNBC-ის ჟურნალისტებმა მოახერხეს ამ ლაბორატორიის დათვალიერება. ფოტოს წყარო: alban / unsplash.com Google-ის TPU-ები გამოჩნდა 2015 წელს და ხელმისაწვდომი გახდა ქლაუდ მომხმარებლებისთვის 2018 წელს - ისინი გამოიყენება Apple Intelligence-ისა და Google Gemini-ის მოდელების მოსამზადებლად. Google იყო პირველი ქლაუდ პროვაიდერი, რომელმაც შექმნა საკუთარი ხელოვნური ინტელექტის ჩიპები - Amazon-მა Inferentia დააანონსა მხოლოდ სამი წლის შემდეგ, ხოლო Microsoft-მა - Maia 2023 წლის ბოლოს. თუმცა ეს უპირატესობა ვერ დაეხმარა Google-ს, გამხდარიყო ლიდერი გენერაციული ხელოვნური ინტელექტის სფეროში: Gemini გამოვიდა OpenAI ChatGPT-ს გამოჩენიდან ერთ წელზე მეტი ხნის შემდეგ. ამავდროულად, ხელოვნური ინტელექტის სფეროში არსებულმა შეთავაზებებმა ხელი შეუწყო Google Cloud-ს იმპულსის მოპოვებაში: კომპანიის ამ სეგმენტმა აჩვენა ზრდა 29%-ით და კვარტალურმა შემოსავალმა პირველად გადააჭარბა10 მლრდ აშშ დოლარს Alphabet-ის ბოლო კვარტალური ანგარიშის მიხედვით. Google-ს საკუთარი ჩიპის შექმნის იდეა მაშინ გაუჩნდა, როდესაც 2014 წელს დაფიქრდა რა რესურსები უნდა ჰქონოდათ, რათა კომპანიის სერვისების ყველა მომხმარებელს შეძლებოდა ხმოვანი ინტერფეისის გამოყენება დღეში მინიმუმ 30 წამის განმავლობაში. როგორც გაირკვა, მონაცემთა ცენტრებში კომპიუტერების რაოდენობის გაორმაგება იყო საჭირო. Google TPU-მ ხელი შეუწყო ზოგიერთი ამოცანის ეფექტურობის 100-ჯერ გაუმჯობესებას. კომპანია კვლავ იყენებს როგორც ტრადიციულ ცენტრალურ პროცესორებს, ასევე Nvidia GPU-ებს. მაგრამ Google TPU არის სპეციალური დანიშნულების ინტეგრირებული სქემა (ASIC), რომელიც შექმნილია მხოლოდ კონკრეტული ტიპის ამოცანისთვის. კომპანიას აქვს კიდევ ერთი ასეთი ჩიპი - Video Coding Unit და იგი გამოიყენება ვიდეოს დასამუშავებლად. Google-მა, Apple-ის მაგალითზე, დაიწყო საკუთარი ჩიპების გამოყენება საკუთარ მოწყობილობებში: Pixel 9 სმარტფონებში ეს არის მეოთხე თაობის Tensor G4 პროცესორი, ხოლო Pixel Buds Pro 2 ყურსასმენში ეს გახლავთ Tensor A1. მაგრამ Google-ის დიდი განმასხვავებელია მისი სასერვერო TPU, რომელსაც ახლა აქვს ბაზრის 58% წილი საკუთარ ქლაუდ AI ამაჩქარებლებს შორის. Nvidia-ს GPU-ები უფრო მოქნილი, მაგრამ უფრო ძვირი და დეფიციტურია დღევანდელ გარემოში, როდესაც ხელოვნური ინტელექტის ბუმმა კომპანიის აქციები რეკორდამდე მიიყვანა და ახლა ის Apple-სა და Microsoft-თან იბრძვის, რომ გახდეს მსოფლიოში ყველაზე ძვირადღირებული საჯარო სავაჭრო კომპანია. Google-ის TPU-ს ნამდვილი გამოცდა ელის მომავალ წელს, როდესაც გამოვა Apple Intelligence პლატფორმა გამოვა iPhone-სა და Mac-ზე. Nvidia-ს ამაჩქარებლების ალტერნატივის შემუშავება თითქმის წარმატებაა. პროცესი იმდენად რთული და ძვირია, რომ Google-საც კი არ შეუძლია ამის გაკეთება დამოუკიდებლად. პირველი TPU-ის დანერგვის დღიდან კომპანიამ მოითხოვა ჩიპების მწარმოებელ Broadcom-ის მხარდაჭერა, რომელიც Meta-ს ეხმარება ანალოგიური პრობლემის გადაჭრაში. სრულად განვითარებული ჩიპის დიზაინი ეგზავნება კონტრაქტორს - TSMC-ს, რომელიც აწარმოებს მსოფლიოში მოწინავე ნახევრადგამტარი პროდუქტების 92%-ს. Trillium. ფოტოს წყარო: CNBC/Marc Ganley მიმდინარე წელს Google გამოუშვებს Trillium TPU-ის მეექვსე თაობას; გარდა ამისა, გასულ აპრილში კომპანიამ დააანონსა Axion, მისი პირველი ცენტრალური პროცესორი, რომელიც გამოჩნდება წლის ბოლოს. და Google არ არის პირველი აქ: Amazon-მა გამოუშვა Graviton 2018 წელს, ჩინური Alibaba-მ მიჰყვა მის მაგალითს 2021 წელს, ხოლო Microsoft-მა წარადგინა ჩიპი Cobalt 100 გასული წლის ნოემბერში. ყველა მათგანი დაფუძნებულია Arm არქიტექტურაზე, რომელიც უფრო მოქნილი და ენერგოეფექტურია, ვიდრე x86, რომლის ერთგულები არიან Intel და AMD. Axion CPU. წყარო: CNBC/Marc Ganley უმნიშვნელოვანესი ასპექტია ეფექტურობა: პროგნოზების მიხედვით 2027 წლისთვის AI სერვერები მოიხმარენ იმდენ ენერგიას წელიწადში, რამდენსაც არგენტინა. Google-ის ბოლო გარემოსდაცვითმა ანგარიში აჩვენა, რომ კომპანიის ემისიები 2019 წლიდან 2023 წლამდე გაიზარდა 50%-ით ნაწილობრივ ხელოვნური ინტელექტი მონაცემთა ცენტრების ზრდის გამო. გაგრილების სერვერები ხელოვნური ინტელექტის სწავლებისა და გაშვებისთვის საჭიროებს წყლის უზარმაზარ მოცულობას, ამიტომ მესამე თაობის Google TPU-ის გაგრილება ხდება უშუალოდ ჩიპზე - Nvidia-მ მსგავსი სქემა გამოიყენა უახლეს Blackwell-ში. და მიუხედავად თანმდევი სირთულეებისა, Google-ის ხელოვნური ინტელექტის აღჭურვილობაზე კვლავაც დიდი მოთხოვნაა და კომპანიას ჯერ არ შეუმჩნევია მისი შესუსტება. https://tinyurl.com/yswhu6uu Quote Link to comment Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.