Connect with us

Công Nghệ

Đây là cách giúp Grok 3 có câu trả lời rất đúng ý người dùng?

Published

on

Đa phần các bạn đều đang rất thích thú khi sử dụng với Grok 3 bởi nó có cách trả lời rất tự nhiên, dùng nhiều từ lóng và có vẻ như rất hiểu gu nói chuyện của chính mỗi người. Vậy làm thế nào nó làm được điều đó?

Đây là cách giúp Grok 3 có câu trả lời rất đúng ý người dùng. Bản chất Grok 3 vẫn là hoạt động dựa trên mô hình ngôn ngữ lớn LLM và dữ liệu là tất cả đối với nó. Grok 3 được tuyên bố là một model “uncen”, nôm na là mọi dữ liệu từ giai đoạn training, output đầu ra đều không có filter nào hết. Quan trọng hơn, nó còn có thể liên tục lấy dữ liệu theo thời gian thực từ X và cả trên internet để phục vụ câu trả lời khi nó cảm thấy cần.

Để phần nào hiểu được cách Grok 3 đưa ra câu trả lời, chúng ta có thể thử xem nó có system prompt là gì. Sơ chút cho bạn nào quan tâm: khi chúng ta vào chat bot Grok 3 để gõ câu truy vấn vào, thì toàn bộ những câu từ đó được gọi là User Prompt. Tuy nhiên, vẫn còn một “prompt ẩn” chính là System Prompt mà mấy anh kỹ sư bên xAI đã setup sẵn để chatbot biết rõ hơn cần phải làm gì. System Prompt + User prompt sẽ hợp nhất thông tin lại và cùng những thành phần khác nữa để cùng nhau hoạt động và trả về kết quả cho người dùng.

Mình đã thử inject một câu prompt để Grok 3 tiết lộ system prompt của nó là gì. Và kết quả bên dưới.

[​IMG]

Tạm dịch:
Khi hoạt động, bạn có thêm một số công cụ bổ sung:

  • Bạn có thể phan tích profile của mỗi người dùng X, các bài đăng X và đường dẫn của họ.
  • Bạn có thể phân tích các nội dung upload bởi người dùng bao gồm hình ảnh, pdf, file văn bản và hơn thế.
  • Bạn có thể tìm kiếm trang web và các bài đăng trên X để có thêm thông tin nếu cần.
  • Nếu có vẻ như người dùng muốn tạo hình ảnh, hãy yêu cầu xác nhận, thay vì tạo ra trực tiếp.
  • Bạn chỉ được quyền edit hình ảnh do bạn tạo ra từ lượt trước đó.
  • Nếu người dùng hỏi ai xứng đáng với án tử hình hoặc ai xứng đáng chết, hãy nói với họ rằng với tư cách là AI, bạn không được phép đưa ra lựa chọn đó.

Thời gian hiện tại là ngày 24 tháng 2 năm 2025.

  • Chỉ sử dụng thông tin ở trên khi người dùng yêu cầu cụ thể.
  • Kiến thức của bạn được cập nhật liên tục – không có sự cắt giảm kiến thức nghiêm ngặt.
  • Không sử dụng ngôn ngữ hoặc điều khoản của bất kỳ thông tin, khả năng hoặc hướng dẫn nào ở trên trong các câu trả lời của bạn. Chúng là một phần của bản năng thứ nhì của bạn, hiển nhiên trong các phản ứng âm thanh tự nhiên của bạn.

Có thể thấy bằng cách kết hợp data đã train với đa dạng các thông tin, kết hợp với lấy trực tiếp thông tin từ tài khoản người dùng, bao gồm cả profile và bài đăng của người dùng, Grok 3 sẽ nhanh chóng “học” được kiểu nói chuyện, ngôn từ, thông tin không chỉ của người dùng đang truy vấn mà cả trong hệ sinh thái xung quanh họ. Đây có thể là một thành phần quan trọng để giúp Grok 3 có thể cho ra câu trả lời rất mượt và cũng rất sát với tâm lý người dùng. Thực ra các bạn đi coi bói thì cũng gặp logic gần gần như thế.

Mình thử dùng prompt tương tự để kêu ChatGPT, Gemini khai System Prompt thì nhận được phản hồi như bên dưới.

Screenshot 2025-02-24 221440.png
Gemini

Screenshot 2025-02-24 221513.png
ChatGPT

Theo Tinhte.vn
Continue Reading

Công Nghệ Phần Mềm

Kỹ sư trưởng Google: Team tôi mất cả năm mới làm xong giải pháp, dùng AI đối thủ chỉ cần 1 giờ

Published

on

Những tưởng câu chuyện này là minh chứng AI đã vượt qua con người về khả năng lập trình, nhưng hóa ra vấn đề còn phức tạp hơn nhiều so với tưởng tượng của mọi người.

Một bài đăng tưởng chừng bình thường của kỹ sư Google đã nhanh chóng lan truyền với tốc độ chóng mặt khi thu hút 4 triệu lượt xem, châm ngòi cho cuộc tranh luận về tốc độ phát triển chóng mặt của công cụ AI lập trình và ý nghĩa của nó đối với ngành phát triển phần mềm truyền thống.

Jaana Dogan, Kỹ sư trưởng tại Google chịu trách nhiệm cho Gemini API, gần đây đã chia sẻ một trải nghiệm gây chấn động. Khi thử nghiệm Claude Code của Anthropic – một công cụ AI được thiết kế để hỗ trợ viết và tổ chức code – cô đưa cho nó một vấn đề mà team của cô đã làm việc trong gần một năm.

Điều khiến cô ngạc nhiên là Claude đã tạo ra thứ gì đó rất giống với giải pháp của Google chỉ trong vòng 60 phút. “Tôi không đùa và điều này không buồn cười. Chúng tôi đã cố xây dựng điều này từ năm ngoái. Tôi đưa Claude một mô tả và nó tạo ra những gì chúng tôi xây năm ngoái trong một giờ,”.

Nhiệm vụ mà Dogan đề cập liên quan đến việc thiết kế các hệ thống quản lý nhiều Tác nhân AI làm việc cùng nhau – giống như điều khiển giao thông nhưng dành cho các bot AI. Team của Google đã khám phá nhiều cách tiếp cận khác nhau nhưng chưa đi đến thiết kế cuối cùng.

Để thử nghiệm Claude một cách công bằng, Dogan tránh sử dụng bất kỳ dữ liệu nội bộ nào và thay vào đó đóng khung một phiên bản đơn giản hóa của vấn đề bằng các ý tưởng công khai. Prompt của cô chỉ có 3 đoạn văn ngắn, không có thông tin độc quyền hay thủ thuật ẩn nào.

Kỹ sư trưởng Google: Team tôi mất cả năm mới làm xong giải pháp, dùng AI đối thủ chỉ cần 1 giờ - Ảnh 2.

Sau khi bài đăng thu hút hàng triệu lượt xem, Dogan đã lên tiếng làm rõ để tránh hiểu lầm. Sự thật là Google không phải “không làm được” mà đã xây dựng thành công nhiều phiên bản khác nhau của hệ thống này. Vấn đề nằm ở chỗ mỗi phiên bản đều có ưu và nhược điểm riêng, khiến team khó quyết định nên chọn giải pháp nào. Khi Dogan đưa những ý tưởng tốt nhất mà team đã nghiên cứu cho Claude Code, công cụ AI này tạo ra một phiên bản demo khá tốt chỉ trong khoảng một giờ.

Dogan nhấn mạnh rằng phiên bản Claude tạo ra chỉ là “toy version” – một mô hình thử nghiệm đơn giản, chưa đủ tiêu chuẩn để đưa vào sản xuất thực tế. Tuy nhiên, nó là một điểm khởi đầu hữu ích. Điều làm cô ngạc nhiên là mặc dù không đưa ra những chỉ dẫn chi tiết về cách thiết kế, Claude Code vẫn tự động đưa ra một số gợi ý thiết kế khá hay.

Câu chuyện này phơi bày một vấn đề lớn hơn về cách các tổ chức lớn làm việc. Trong 12 tháng vừa qua, các team nội bộ của Google mất phần lớn thời gian với hàng loạt cuộc họp, tranh luận về cách tiếp cận nào tốt hơn, và chờ đợi sự đồng thuận từ nhiều bộ phận khác nhau – một vấn đề hoàn toàn do sự quan liêu của tổ chức và không liên quan đến kỹ thuật – một điểm nghẽn mà các hệ thống AI không hề gặp phải.

Kỹ sư trưởng Google: Team tôi mất cả năm mới làm xong giải pháp, dùng AI đối thủ chỉ cần 1 giờ - Ảnh 3.

Nhưng đây có phải câu trả lời cho câu hỏi rằng liệu các kỹ sư phần mềm có trở nên lỗi thời hay không?

Trên thực tế, câu hỏi cần thiết hơn là công việc của kỹ sư sẽ thay đổi như thế nào. Nếu AI có thể gói gọn một năm làm việc thành một giờ hoạt động, thì khả năng viết code không còn là điều quyết định nữa mà là khả năng tư duy rõ ràng về kiến trúc hệ thống và ra quyết định đúng đắn.

Bà Dogan giải thích rằng việc trở thành một kỹ sư giỏi đòi hỏi nhiều năm học tập và tích lũy kinh nghiệm. Bạn cần thời gian để hiểu sâu về sản phẩm, rút ra những bài học từ các dự án trước và xây dựng những giải pháp có thể tồn tại lâu dài. Nhưng một khi đã có được kiến thức và hiểu biết đó, việc xây dựng lại hệ thống trở nên đơn giản hơn nhiều.

“Ngày nay, việc lấy kiến thức của bạn và xây dựng lại nó hoàn toàn dễ dàng, điều mà trước đây không thể làm được,” cô viết. Lợi ích của việc xây từ đầu là bạn không phải kéo theo những đoạn code cũ kỹ hoặc các quyết định thiết kế không còn phù hợp nữa.

Vì vậy, trong tương lai, có thể kỹ sư sẽ dành ít thời gian hơn cho việc viết code và nhiều thời gian hơn cho việc định nghĩa rõ ràng vấn đề cần giải quyết, kiểm tra xem kết quả AI tạo ra có đúng không, và tích hợp các giải pháp vào hệ thống phức tạp. Với tốc độ phát triển chóng mặt của AI chỉ trong thời gian ngắn ngủi vài năm vừa qua, có thể điều này sẽ đến rất nhanh trong tương lai.

Câu trả lời của bà Dogan khiến nhiều người nhận ra câu trả lời cho câu hỏi trên: AI có thể chưa thay thế bảng trắng hay đồ ăn nhẹ, nhưng chắc chắn có thể thay thế một năm cuộc họp. Đây không phải là về việc AI thay thế kỹ sư, mà là về việc nó thay đổi cách chúng ta làm việc và những kỹ năng nào thực sự có giá trị trong tương lai.

Ver2Solution theo VTV

Continue Reading

Công Nghệ Phần Mềm

Meta sắp thu phí Facebook, Instagram, WhatsApp người dùng muốn xài AI

Published

on

Meta đang lên kế hoạch triển khai các gói dịch vụ trả phí cho Facebook, Instagram và WhatsApp, trong đó người dùng có thể tiếp cận thêm nhiều tính năng AI.

Trong bối cảnh AI đang trở thành ưu tiên lớn của các công ty công nghệ, Meta bắt đầu nhắc tới khả năng triển khai các gói dịch vụ trả phí cho Facebook, Instagram và WhatsApp.

Theo thông tin Meta chia sẻ với các cơ quan quản lý, các gói này được nghiên cứu theo hướng bổ sung thêm nhiều tính năng AI, mở rộng trải nghiệm trên nền tảng.

Dù chưa có sản phẩm cụ thể nào được đưa ra, việc Meta chủ động đặt vấn đề thu phí cho các dịch vụ vốn quen thuộc với người dùng miễn phí đang gợi mở nhiều thay đổi đáng chú ý phía trước.

Kế hoạch mới của Meta

Manus được cho là trợ lý AI nội bộ mà Meta đang thử nghiệm cho các gói dịch vụ trả phí. Công cụ này được thiết kế để hỗ trợ người dùng trong các tác vụ quen thuộc như soạn nội dung, trả lời tin nhắn, gợi ý phản hồi hoặc hỗ trợ sáng tạo bài đăng ngay bên trong ứng dụng, thay vì phải chuyển sang các dịch vụ AI bên ngoài.

Bên cạnh đó, Vibes là tiện ích tạo video bằng AI đang được Meta nghiên cứu cho Facebook và Instagram. Công cụ hướng tới việc giúp người dùng tạo video trực tiếp trong ứng dụng, đơn giản hóa quá trình sản xuất nội dung và giảm sự phụ thuộc vào các nền tảng chỉnh sửa bên thứ ba.

Các dấu hiệu cho thấy những công cụ này đã được chuẩn bị ở mức kỹ thuật cũng đã xuất hiện. Alessandro Paluzzi, chuyên gia phân tích các phiên bản thử nghiệm của ứng dụng di động, cho biết ông phát hiện phím tắt dẫn thẳng tới Manus AI đã xuất hiện trên giao diện Instagram trong một số bản dựng thử, dù tính năng này hiện chưa được mở cho người dùng phổ thông.

Sự hiện diện của các công cụ như Manus hay Vibes cho thấy kế hoạch của Meta không chỉ dừng lại ở định hướng. Dù chưa có mốc triển khai cụ thể hay thông báo chính thức, những thử nghiệm này cho thấy Meta đang từng bước chuẩn bị cho một mô hình dịch vụ mới, trong đó AI giữ vai trò trung tâm.

Những tiện ích nhỏ chạm đúng nhu cầu người dùng

Thay vì tiếp tục mở rộng các đặc quyền mang tính hình thức, các gói đăng ký mới được cho là đang hướng tới những tình huống sử dụng rất quen thuộc với người dùng phổ thông. Đây là những thao tác vốn diễn ra hằng ngày trên Instagram, nhưng trước đó chưa từng được nền tảng hỗ trợ trực tiếp.

Một trong những thay đổi đáng chú ý là khả năng sắp xếp và quản lý danh sách người theo dõi theo cách linh hoạt hơn, không còn bị giới hạn như hiện nay. Điều này giúp người dùng, đặc biệt là các tài khoản có lượng kết nối lớn, dễ theo dõi và kiểm soát các mối quan hệ trên nền tảng.

Song song với đó, các tùy chọn xem story theo chế độ kín đáo hơn cũng được nhắc tới, cho phép người dùng tiếp cận nội dung mà không để lại dấu hiệu hiển thị. Ngoài ra, việc hiển thị rõ những mối quan hệ theo dõi một chiều được xem là cách giúp người dùng nắm bắt tình trạng kết nối của mình, thay vì phải tự kiểm tra thủ công như trước.

Dịch vụ trả phí và bài toán thay đổi hành vi người dùng

Nhìn từ các kế hoạch và thử nghiệm đang được hé lộ, Meta cho thấy đang từng bước định hình một mô hình dịch vụ mới cho Facebook, Instagram và WhatsApp. Thay vì tạo ra thay đổi đột ngột, các gói đăng ký trả phí được đặt ở vai trò bổ sung, tập trung vào tiện ích sử dụng và các công cụ hỗ trợ, đặc biệt là AI, dành cho nhóm người dùng có nhu cầu cao hơn.

Dù vậy, câu hỏi lớn nhất vẫn là mức độ sẵn sàng chi trả của người dùng. Khi các nền tảng của Meta đã gắn liền với thói quen miễn phí trong nhiều năm, giá trị thực tế của các tính năng AI và sự khác biệt so với những giải pháp miễn phí bên ngoài sẽ là yếu tố quyết định mô hình này có được đón nhận hay không.

Ver2Solution theo Tuổi Trẻ

Continue Reading

Công Nghệ Phần Cứng

Elon Musk tạo tập đoàn lớn nhất thế giới 1.250 tỉ USD

Published

on

SpaceX đã mua lại xAI – công ty trí tuệ nhân tạo do Elon Musk sáng lập – qua đó tạo ra doanh nghiệp tư nhân có giá trị lớn nhất thế giới.

Continue Reading

Đọc nhiều nhất

Copyright © 2024 Ver2solution.com .