Google vừa làm cả thế giới ngạc nhiên khi công bố chiếc router Wi-Fi mang tên OnHub có giá 200 USD, với lời tuyên bố mang lại cho mạng Wi-Fi gia đình tốc độ nhanh, an toàn và dễ cấu hình hơn. Nhưng bản thân người khổng lồ tìm kiếm từ lâu đã phải đau đầu về việc thiết lập mạng cho mình…

Để kết nối hàng trăm ngàn máy tính hoạt động trong mỗi trung tâm dữ liệu của Google, rõ ràng không thể chỉ sử dụng vài bộ định tuyến (router) và bộ chuyển mạch (switch) cơ bản. Thực tế là để quản lý mọi luồng dữ liệu truyền giữa các các máy chủ của mình, Google liên tục xây dựng phần cứng và phát triển phần mềm cho riêng mình, và hôm 18/8, công ty đã hé lộ cho thế giới thấy quá trình phát triển hạ tầng mạng của mình ra sao.

Thiết lập hiện tại của Google, gọi là mạng Jupiter, đã có công suất gấp hàng trăm lần so với mạng thế hệ đầu tiên của công ty và có thể cung cấp băng thông tổng cộng kết nối nội tại lên tới tận 1 Petabit/giây (1 petabit = 1 triệu gigabit). Công ty cho biết, tốc độ cỡ này cho phép 100.000 máy chủ đọc toàn bộ dữ liệu số hóa (sách/tài liệu scan) của Thư viện Quốc hội Mỹ chỉ trong chưa tới 1/10 giây.

“Hiệu suất mạng như vậy đã mang lại khả năng to lớn cho các dịch vụ của Google”, Amin Vahdat, một Google Fellow (kỹ sư hàng top tại Google) và là trưởng kỹ thuật mạng của công ty, viết trên blog hôm 18/8. Ông cho biết, các kỹ sư của công ty không còn phải vướng bận việc tối ưu hóa chương trình của họ cho từng cấp độ băng thông khác nhau của hệ thống.

Tuy nhiên, 10 năm trước, Google còn cách xa công suất này. Đó là lúc công ty chưa thâu tóm YouTube và chỉ mới triển khai các dịch vụ Gmail, Google Earth và Google Maps. Điều đó cho thấy nhu cầu của công ty dường như đã thay đổi rất nhanh.

Theo một bài viết dài 15 trang được Google đăng lên hôm 18/8, vào năm 2004, công ty vẫn còn triển khai các cụm máy chủ thông thường, và những thiết bị triển khai trong năm 2005 là ví dụ đầu tiên của mạng mà công ty triển khai theo kiến trúc trung tâm dữ liệu Firehose 1.0 của mình. Mục tiêu của các thiết bị triển khai trong năm 2005 là để đạt băng thông tổng cộng 1 Gigabit/giây giữa 10.000 máy chủ. Để đạt được điều đó, Google đã tìm cách tích hợp cơ cấu chuyển mạch thích hợp vào các máy chủ tự tạo của mình, nhưng hóa ra là “thời gian hoạt động của các máy chủ thấp hơn hình dung”.

Với Firehose 1.1, Google sau đó đã triển khai kết cấu cụm trung tâm dữ liệu tùy chỉnh đầu tiên của mình. Công ty không sử dụng các máy chủ thông thường như với kiến trúc Firehose 1.0. Thay vào đó, Google đã xây dựng các khung máy tùy chỉnh và chuyển sang kiến trúc mang tên Clos cho các mạng trung tâm dữ liệu của mình.

Đến năm 2008, Firehose 1.1 đã phát triển thành WatchTower, cùng với việc chuyển sang sử dụng cáp quang 10G thay vì cáp mạng truyền thống. Phiên bản này được Google áp dụng cho mọi trung tâm dữ liệu của mình trên toàn cầu.

Hình ảnh dưới đây đem đến cái nhìn về các rack này:

Một năm sau đó, WatchTower được chuyển thành Saturn. Trong khi cấu trúc WatchTower có thể mở rộng lên 87 Terabit/giây, thì Saturn cho phép mở rộng lên tới 207 Terabit/giây trên những rack bố trí sít hơn. (1 terabit = 1.000 gigabit).

Saturn được Google duy trì sử dụng trong 3 năm liền, trước khi nhu cầu bùng nổ vượt xa khả năng của kiến trúc này.

“Yêu cầu về băng thông trên máy chủ tiếp tục tăng cao, do vậy tạo ra nhu cầu băng thông trên toàn bộ các cụm máy chủ trong trung tâm dữ liệu. Với sự ra đời của silicon thương mại có khả năng 40G, chúng tôi có thể xem xét mở rộng cấu trúc Clos của mình ra toàn bộ trung tâm dữ liệu gộp chung lớp mạng liên cụm”, các kỹ sư của Google viết.

Đó là kiểu kiến trúc mà hiện cho phép Google xem mỗi một trung tâm dữ liệu như là một cỗ máy tính khổng lồ, với phần mềm xử lý việc phân bổ các tài nguyên tính toán và lưu trữ có sẵn cho mọi máy chủ khác nhau trên mạng.

Phần cứng Jupiter chắc chắn trông khác với những nỗ lực ban đầu của Google xây dựng các thiết bị mạng tùy chỉnh của công ty, nhưng thực tế là công ty đã sớm áp dụng mạng điều khiển bằng phần mềm (Software Defined Networking – SDN) nhờ thế đã đổi mới nhanh chóng.

Tiết lộ mới của Google hôm 18/8 khá chi tiết về quá trình phát triển mạng mà công ty thiết lập cho các trung tâm dữ liệu. Có lẽ tới đây nhiều nhà điều hành trung tâm dữ liệu sẽ nghiên cứu kỹ những thông tin này để có những giải pháp nâng cao hiệu suất cho các mạng trong các trung tâm dữ liệu của mình, nhằm cung cấp dịch vụ chất lượng cao hơn cho người dùng.

Kỳ Hà
(PCWorldVN)

FPT Aptech – Hệ Thống Đào Tạo Lập Trình Viên Quốc Tế

FPT Aptech trực thuộc Tổ chức Giáo dục FPT có hơn 25 năm kinh nghiệm đào tạo lập trình viên quốc tế tại Việt Nam, và luôn là sự lựa chọn ưu tiên của các sinh viên và nhà tuyển dụng.
0981578920
icons8-exercise-96