Amazon ra mắt công cụ và mô hình AI mang tính đột phá

14 giờ trước 2
Chú thích ảnhBiểu tượng Tập đoàn công nghệ Amazon của Mỹ. Ảnh minh họa: AP/TTXVN

Cụ thể, Amazon Web Services (AWS), bộ phận điện toán đám mây của Amazon, đã ra mắt một công cụ mới được thiết kế nhằm giải quyết các “ảo giác AI” - tình huống khi mô hình AI tạo ra phản hồi không chính xác, thiếu độ tin cậy. Công cụ có tên Automated Reasoning checking là công cụ đầu tiên và duy nhất giúp xác thực phản hồi của AI bằng cách tham chiếu chéo dữ liệu do khách hàng cung cấp nhằm đảm bảo độ chính xác.

Có sẵn thông qua dịch vụ lưu trữ mô hình Bedrock của AWS, công cụ này hoạt động bằng cách tạo các quy tắc từ dữ liệu người dùng để xác thực câu trả lời của AI. Nếu phát hiện “ảo giác”, công cụ sẽ hiển thị lỗi có khả năng xảy ra cùng với câu trả lời đúng, giúp khách hàng xác định sự khác biệt. Theo Amazon, công ty kiểm toán hàng đầu PwC đang sử dụng công cụ này để xây dựng trợ lý AI cho khách hàng của mình.

Cũng tại hội nghị, AWS đã công bố mô hình AI tạo sinh đa phương thức mới có tên Nova, với 4 phiên bản tạo văn bản là Micro, Lite, Pro và Premier. Ba mô hình Micro, Lite và Pro đã có sẵn để phục vụ nhu cầu của khách hàng, trong khi phiên bản Premiere sẽ ra mắt vào đầu năm 2025. Ngoài ra, AWS cũng giới thiệu Nova Canvas để tạo hình ảnh và Nova Reel để tạo video.

Các mô hình nêu trên có khả năng hỗ trợ 200 ngôn ngữ và có thể tùy chỉnh bằng dữ liệu độc quyền. AWS đặt mục tiêu cung cấp các mô hình này với chi phí thấp hơn 75% so với các mô hình cạnh tranh.

Giám đốc điều hành Amazon Andy Jassy cho biết tập đoàn cũng đang phát triển các mô hình tiên tiến, có khả năng tiếp nhận dữ liệu từ giọng nói hay bất cứ dạng đầu vào nào trong năm 2025.

Bên cạnh đó, AWS cũng đã công bố tính khả dụng chung của dòng chip Trainium2 (T2), được thiết kế để đẩy nhanh quá trình đào tạo và triển khai các mô hình ngôn ngữ lớn (LLM).

Dòng chip T2 nhanh hơn 4 lần so với các chip tiền nhiệm và có khả năng chạy suy luận cho các mô hình lớn, cung cấp thông lượng tạo mã thông báo cao hơn gấp 3 lần so với các dịch vụ khác có sẵn của các nhà cung cấp đám mây lớn.

Hiện AWS cũng đang hợp tác với Anthropic để xây dựng một cụm máy tính AI khổng lồ sử dụng dòng chip này, tuyên bố rằng đây sẽ là cụm máy tính AI lớn nhất cho đến nay. T2 dự kiến sẽ tăng đáng kể hiệu suất của LLM, với chip Trainium3 trong tương lai dự kiến phát hành vào cuối năm 2025.

Những phát triển mới báo hiệu cam kết nghiêm túc của Amazon trong việc mở rộng khả năng AI, tạo ra thách thức trực tiếp cho các đối thủ cùng lĩnh vực “gây sốt” này.

Nguồn bài viết