News

PVML kết hợp một nền tảng truy cập và phân tích dữ liệu trung tâm AI với yếu tố bảo mật khác biệt

Các doanh nghiệp đang lưu trữ nhiều dữ liệu hơn bao giờ hết để thúc đẩy các hoạt động AI của họ, nhưng đồng thời, họ cũng lo lắng về ai có thể truy cập vào dữ liệu này, dữ liệu mà thường là rất riêng tư. PVML đang cung cấp một giải pháp đáng chú ý bằng cách kết hợp một công cụ giống ChatGPT để phân tích dữ liệu với các cam kết về bảo mật của differential privacy. Sử dụng RAG (retrieval-augmented generation), PVML có thể truy cập vào dữ liệu của một công ty mà không cần di chuyển nó, loại bỏ một yếu tố bảo mật khác.

Công ty có trụ sở tại Tel Aviv gần đây đã thông báo rằng họ đã huy động được một vòng đầu tư hạt giống trị giá 8 triệu đô la do NFX dẫn đầu, với sự tham gia của FJ Labs và Gefen Capital.

Tín dụng hình ảnh: PVML

Công ty được thành lập bởi cặp đôi chồng vợ Shachar Schnapp (CEO) và Rina Galperin (CTO). Schnapp đã có bằng tiến sĩ trong ngành khoa học máy tính, chuyên ngành về differential privacy, và sau đó đã làm việc về thị giác máy tính tại General Motors, trong khi Galperin đã có bằng thạc sĩ trong ngành khoa học máy tính với trọng tâm vào AI và xử lý ngôn ngữ tự nhiên và đã làm việc trên các dự án học máy tại Microsoft.

\"Rất nhiều kinh nghiệm của chúng tôi trong lĩnh vực này đến từ công việc của chúng tôi tại các tập đoàn lớn và các công ty lớn, nơi chúng tôi thấy rằng mọi thứ không hiệu quả như chúng tôi hy vọng như những sinh viên ngây thơ, có lẽ,\" Galperin nói. \"Giá trị chính mà chúng tôi muốn mang đến cho các tổ chức với PVML là làm cho dữ liệu trở nên dân chủ. Điều này chỉ có thể xảy ra nếu bạn, một mặt, bảo vệ dữ liệu rất nhạy cảm này, nhưng, mặt khác, cho phép truy cập dễ dàng vào nó, điều mà ngày nay đồng nghĩa với AI. Mọi người muốn phân tích dữ liệu bằng văn bản tự do. Việc này dễ dàng hơn, nhanh hơn và hiệu quả hơn nhiều - và \'sốt kết hợp bí mật\' của chúng tôi, differential privacy, cho phép tích hợp này một cách dễ dàng.\"

Differential privacy không phải là một khái niệm mới. Ý tưởng cốt lõi là đảm bảo sự riêng tư của người dùng cá nhân trong các bộ dữ liệu lớn và cung cấp cam kết toán học cho điều đó. Một trong những cách phổ biến nhất để đạt được điều này là giới thiệu một mức độ ngẫu nhiên vào tập dữ liệu, nhưng một cách không thay đổi phân tích dữ liệu.

Đội ngũ lập luận rằng các giải pháp truy cập dữ liệu hiện nay không hiệu quả và tạo ra nhiều chi phí cố định. Thường, ví dụ, phải loại bỏ nhiều dữ liệu trong quá trình cho phép nhân viên có thể truy cập an toàn vào dữ liệu - nhưng điều đó có thể là việc không hiệu quả vì bạn có thể không thể hiệu quả sử dụng dữ liệu đã được chiếu én cho một số công việc (ngoài ra, thời gian chờ để truy cập dữ liệu có nghĩa là các trường hợp sử dụng thời gian thực thường không thể thực hiện được).

Tín dụng hình ảnh: PVML

Việc sử dụng differential privacy đồng nghĩa với việc người dùng của PVML không cần phải thay đổi dữ liệu gốc. Điều này loại bỏ gần như tất cả những chi phí cố định và mở khóa thông tin này một cách an toàn cho các trường hợp sử dụng AI.

Hầu hết tất cả các công ty công nghệ lớn hiện nay đều sử dụng differential privacy dưới một hình thức nào đó, và cung cấp các công cụ và thư viện của họ cho các nhà phát triển. Nhóm PVML lập luận rằng nó thực sự chưa được đưa vào thực hành bởi phần lớn cộng đồng dữ liệu.

\"Kiến thức hiện tại về differential privacy còn khá lý thuyết hơn là thực hành,\" Schnapp nói. \"Chúng tôi quyết định chuyển nó từ lý thuyết sang thực hành. Và đó chính xác là những gì chúng tôi đã làm: Chúng tôi phát triển các thuật toán thực tế hoạt động tốt nhất trên dữ liệu trong các kịch bản cuộc sống thực.\"

Không có nghĩa vụ nào trong việc làm việc về differential privacy nếu các công cụ và nền tảng phân tích dữ liệu thực sự của PVML không hữu ích. Trường hợp sử dụng rõ ràng nhất ở đây là khả năng trò chuyện với dữ liệu của bạn, tất cả với cam kết rằng không có dữ liệu nhạy cảm nào có thể rò rỉ vào cuộc trò chuyện. Sử dụng RAG, PVML có thể giảm thiểu tới gần như không và chi phí cố định là tối thiểu vì dữ liệu vẫn ở chỗ.

Nhưng cũng có các trường hợp sử dụng khác. Schnapp và Galperin lưu ý là differential privacy còn cho phép các công ty chia sẻ dữ liệu giữa các đơn vị kinh doanh. Ngoài ra, nó cũng có thể cho phép một số công ty tiếp thị truy cập vào dữ liệu của họ cho bên thứ ba, ví dụ như.

\"Trong thị trường chứng khoán ngày nay, 70% giao dịch được thực hiện bằng AI,\" Gigi Levy-Weiss, đối tác đồng sáng lập và đối tác chính của NFX, nói. \"Đó là một vị taste của những điều sắp đến, và các tổ chức áp dụng AI ngày hôm nay sẽ dẫn trước ngày mai. Nhưng các công ty sợ kết nối dữ liệu của mình với AI, vì họ lo sợ phơi bày - và có lý do tốt. Công nghệ duy nhất của PVML tạo ra một lớp bảo vệ vô hình và phát triển truy cập vào dữ liệu, cho phép trường hợp sử dụng để tiền tệ ngày hôm nay và mở đường cho ngày mai.\"

Related Articles

Back to top button