Sau đó, Raymond đặt chồng 2 ảnh của A7R III và S21 Ultra lên nhau, thay đổi màu sắc để chúng ta thấy sự khác biệt về các hình khối (nếu có) của hai sản phẩm này. Kết quả cho thấy hình khối của cả 2 máy gần như tương đồng. Rõ ràng hình ảnh này cho chúng ta thấy Samsung đã không fake các hình khối bề mặt mặt trăng, vì nếu fake thì nó sẽ khác với A7R III ở một mức độ nào đó, không thể tương đồng và gần như giống hệt nhau như vậy.
Raymond còn đi xa hơn khi thử chế độ Scene Optimizer trên S21 Ultra để xem nếu không có nó thì S21 Ultra chụp được gì, thì đây là kết quả. Vậy có thể tạm coi Scene Optimizer là tác nhân giúp S21 Ultra chụp được mặt trăng. Bạn có thể xem toàn bộ những thử nghiệm, kết luận... tại đây
Và đây là một hình ảnh khác mà Raymond chụp mặt trăng bằng camera của Galaxy S21 Ultra zoom 100x và iPhone 12 Pro Max 12x
Okie, vậy bằng chứng một từ Raymond cho thấy Galaxy S21 Ultra và các sản phẩm dùng chung một engine xử lý ảnh sau này không fake hình ảnh mặt trăng, vậy nó thật sự đã làm gì để chụp được mặt trăng đó? Đây là bằng chứng thứ 2 của Samsung, họ đã phản hồi chi tiết về những nghi vấn, của Raymond trong bài viết phía trên, đồng thời đăng tải các bước chi tiết để hiện thực hóa các bức ảnh mặt trăng vào năm 2022, trong một bài viết chính thức bằng tiếng Hàn mà các bạn có thể xem ở đây.
Mình sẽ tóm tắt cho các bạn về các bước xử lý này. Nhưng nó có liên quan đến ArcSoft, một công ty hàng đầu, hay nói đúng hơn là công ty đứng đầu về xử lý ảnh trên điện thoại di động, là kẻ giấu mặt sau hàng loạt công nghệ chụp hình bằng cách ghép nhiều ảnh và xử lý AI của nhiều hãng điện thoại khác nhau. Vị thế của ArcSoft trong engine xử lý ảnh giống với DxOMark của tuning camera, bạn có thể tham khảo lại DxO ở đây, còn ArcSoft khi nào rảnh mình sẽ viết. Bằng cách lục các dòng code trong SDK của Galaxy S21 Ultra, người ta phát hiện ra Samsung đã phối hợp với ArcSoft phát triển các bộ công cụ tự động nhận diện hình ảnh.
Bạn nào già chắc thấy logo ArcSoft quen quen, webcam? photostudio? hehe, từ thời Windows ngày xưa
Sau này thì ArcSoft có đem bán các bộ công cụ này cho các công ty điện thoại khác, tất nhiên là sẽ có những khác biệt so với Samsung nhưng chung cơ chế. Mình nhớ hồi đó phí bản quyền và các chi phí khác cộng lại có thể lên đến vài đô la cho mỗi sản phẩm bản ra, rất rất cao. Và tất nhiên là ngay cả 2021 hay bây giờ thì Samsung cũng từ chối bình luận về ArcSoft và các đối tác khác của họ.
Đây là các bước mà Samsung đã thực hiện để chụp ảnh mặt trăng trên S21 Ultra và các series S về sau:
Đầu tiên, khi người dùng kích hoạt chế độ Scene Optimizer ( tạm dịch là tối ưu hình ảnh cho từng khung cảnh), điện thoại Samsung cũng đồng thời kích hoạt chức năng Super Resolution (siêu độ phân giải). Khi này máy sẽ tự động chụp hơn 10 hình ảnh khác nhau ở mức zoom trên 25x trở lên và ghép chúng lại nhằm tạo ra một hình ảnh độ phân giải cao hơn, giảm nhiễu, tăng độ sắc nét và chi tiết.
Trong suốt quá trình chụp, độ sáng của hình ảnh sẽ được giảm thật tối để camera thấy rõ các hình khối, chi tiết của mặt trăng, bạn có thể tạm hiểu là giảm EV của ảnh đến tối đa để cứu lấy chi tiết, vì chỉ có mặt trăng là sáng còn vùng trời xung quanh tối, nếu đo sáng trung bình thì toàn bộ ảnh sẽ rất cháy như hình ảnh trên
Trong quá trình chụp, khi chúng ta zoom thì hình ảnh thường sẽ dễ bị rung. Samsung tạo ra cơ chế Zoom Lock, tính năng này kết hợp cả chống rung quang học và chống rung điện tử mà Samsung gọi là VDIS để ảnh cân bằng đến mức tối đa.
Đó là bước sơ bộ về chụp ra hình ảnh, sau đó hình ảnh này được kết hợp với thuật toán trí tuệ nhân tạo để tạo ra hình ảnh cuối cùng sắc nét và chi tiết hơn.
Vậy thuật toán này hoạt động ra sao, nó sẽ dựa vào một cơ sở dữ liệu mà Samsung thu thập từ trước, bất kể mặt trắng đó là tròn hay bán nguyệt hay các hình dạng khác. Thuật toán có khả năng nhận diện vùng của mặt trăng, do vậy nó vẫn biết đó là mặt trăng kể cả khi bị che khuất một phần. Nhưng để làm vậy thì nó phải chạy qua một cơ chế nhận diện trước đó để xem hình ảnh chụp lại vừa rồi có phải mặt trăng thật hay không.
Nếu phải, các hình ảnh chụp sẽ được ghép lại bằng thuật toán Multi-frame processing với tối thiểu 10 tấm như đã nói ở trên để giảm nhiễu.
Nhưng mà có giảm thì vẫn quá nhiều và không thật sự sắc nét do mặt trăng ở quá xa và quá mờ, và ở đây chúng ta lại thêm một thuật toán nữa là Detail Enhancement để tăng chi tiết cho ảnh.
Tất nhiên là thuật toán nào cũng có hạn chế, ví dụ như trường hợp này thì nó sẽ không nhận diện được.
Như vậy, bạn đã thấy Samsung công bố rất rõ về flow xử lý của họ, và thực tế cũng đã chứng minh nó thật sự không fake vì nếu bạn chụp mặt trăng đỏ, thì ảnh ra sẽ là mặt trăng đỏ, khối chi tiết thế nào thì ảnh ra cũng khối chi tiết thật như vậy.
Đầu vào, và đầu ra sau khi xử lý
4. Đâu là giới hạn của ảnh AI và đâu là giới hạn của một bức ảnh thật
Nếu như phần trên là "giải oan" cho Samsung, thì phía dưới này là suy nghĩ của mình cho những bức ảnh chụp bằng điện thoại. Mình để chữ "giải oan" và "vô tội" trong ngoặc kép vì chúng ta chưa hề có khái niệm nào về ranh giới, về những giới hạn của việc áp những thuật toán trí tuệ nhân tạo vào ảnh cả.Hãy thử tưởng tượng thế này:
- Bạn dùng AI để làm mờ hậu cảnh phía sau, tạo hiệu ứng xóa phông mạnh mẽ, thì rõ ràng hình ảnh đó không còn thật nữa rồi, vậy AI can thiệp vào có đúng hay không?
- Bạn dùng AI để bóp má, làm cho mặt gầy hơn hay mắt long lanh hơn, chỉ một chút thôi, vậy đó có phải là một bức ảnh sai sự thật hay không?
- Bạn thấy một người nào đó thừa trong khung hình, dùng Magic Eraser của Google để xóa họ đi, vậy bức ảnh đó có còn giá trị?
- Hình ảnh người ông đã mất của bạn bị mờ, dùng AI để "vẽ" lại, làm cho bức ảnh đó sắc nét hơn, vậy điều đó có đúng không?
- Một bức ảnh chụp rung tay, bị mờ nặng, AI cứu nó có được không?
- Hay đơn giản hơn, nếu dùng Live Photo trên iPhone, bạn thường xuyên chọn lại một khoảnh khắc nào đó trong video preview chất lượng kém của ảnh, sau đó AI sẽ tự vẽ lại ảnh chất lượng cao cho khoảnh khắc đó, liệu bức ảnh đó có sai hay không?
0 Nhận xét