DỮ LIỆU LỚN - Trang 62

Khi số lượng dữ liệu lớn hơn nhiều và là một loại mới, độ chính
xác trong một số trường hợp không còn là mục tiêu, miễn là
chúng ta có thể thấy được xu hướng chung. Việc chuyển sang
một quy mô lớn làm thay đổi không chỉ sự mong đợi về độ
chính xác mà cả khả năng thực tế để đạt được sự chính xác. Dù
nó có vẻ phản lại trực giác lúc đầu, việc xử lý dữ liệu như một cái
gì đó không hoàn hảo và không chính xác cho phép chúng ta
đưa ra dự báo tốt hơn, và do đó hiểu biết thế giới của chúng ta
tốt hơn.

Nên lưu ý rằng hỗn độn không phải là đặc tính vốn có của dữ
liệu lớn. Thay vào đó, nó là một chức năng của sự không hoàn
hảo của các công cụ chúng ta sử dụng để đo lường, ghi nhận và
phân tích thông tin. Nếu công nghệ bằng cách nào đó trở nên
hoàn hảo, thì vấn đề của sự không chính xác sẽ biến mất.
Nhưng một khi nó còn là không hoàn hảo, thì sự hỗn độn là một
thực tế mà chúng ta phải đối mặt. Và nhiều khả năng nó sẽ còn
tồn tại với chúng ta trong một thời gian dài. Nỗ lực để tăng độ
chính xác thường sẽ không có ý nghĩa kinh tế, bởi giá trị của
việc có những lượng dữ liệu lớn hơn sẽ hấp dẫn hơn. Giống như
các nhà thống kê trong kỷ nguyên trước đây đã gạt sang một
bên mối quan tâm của họ tới những kích thước mẫu lớn hơn, để
ủng hộ sự ngẫu nhiên hơn, chúng ta có thể sống với một chút
không chính xác để đổi lấy nhiều dữ liệu hơn.

Dự án Billion Prices cung cấp một trường hợp khá hấp dẫn. Mỗi
tháng Cục Thống kê Lao động Mỹ công bố chỉ số giá tiêu dùng,
hay CPI, được sử dụng để tính toán tỷ lệ lạm phát. Chỉ số liệu
này là rất quan trọng cho các nhà đầu tư và doanh nghiệp. Cục
Dự trữ Liên bang xem xét nó khi quyết định nên tăng hoặc giảm
lãi suất. Lương cơ bản của các công ty tăng khi có lạm phát.
Chính phủ liên bang sử dụng nó để điều chỉnh khoản thanh

Liên Kết Chia Sẽ

** Đây là liên kết chia sẻ bới cộng đồng người dùng, chúng tôi không chịu trách nhiệm gì về nội dung của các thông tin này. Nếu có liên kết nào không phù hợp xin hãy báo cho admin.