Apresentado pela Capital One Programas
A tokenização está emergindo como uma pedra angular da segurança de dados moderna, ajudando as empresas a separar o valor dos seus dados do seu risco. Durante este VB in Conversation, Ravi Raghu, presidente da Capital One Software, fala sobre como a tokenização pode ajudar a reduzir o valor dos dados violados e preservar o formato e a usabilidade dos dados subjacentes, incluindo a própria experiência da Capital One no aproveitamento da tokenização em escala.
A tokenização, afirma Raghu, é uma tecnologia muito superior. Ele converte dados confidenciais em um substituto digital não confidencial, chamado token, que mapeia de volta ao original, que é protegido em um cofre digital. O espaço reservado para token preserva o formato e a utilidade dos dados confidenciais e pode ser usado em vários aplicativos, incluindo modelos de IA. Como a tokenização elimina a necessidade de gerenciar chaves de criptografia ou de dedicar computação à criptografia e descriptografia constantes, ela oferece uma das maneiras mais escalonáveis para as empresas protegerem seus dados mais confidenciais, acrescentou.
"A parte matadora, do ponto de vista da segurança, quando você pensa sobre isso em relação a outros métodos, se um malfeitor obtiver os dados, ele obterá os tokens," ele explicou. "Os dados reais não ficam com o token, ao contrário de outros métodos como a criptografia, onde os dados reais ficam lá, apenas esperando que alguém obtenha uma chave ou use força bruta para chegar aos dados reais. De todos os ângulos, esta é a maneira ideal de proteger dados confidenciais."
O diferenciador de tokenização
A maioria das organizações está apenas arranhando a superfície da segurança dos dados, adicionando segurança no final, quando os dados são lidos, para evitar que um usuário final os acesse. No mínimo, as organizações devem se concentrar em proteger os dados durante a gravação, à medida que são armazenados. Mas as melhores organizações vão ainda mais longe, protegendo os dados desde o nascimento, no momento em que são criados.
Em uma extremidade do espectro de segurança está uma abordagem simples de chave e fechadura que restringe o acesso, mas deixa os dados subjacentes intactos. Métodos mais avançados, como mascarar ou modificar dados, alteram permanentemente o seu significado – o que pode comprometer a sua utilidade. A criptografia em nível de arquivo oferece proteção mais ampla para grandes volumes de dados armazenados, mas quando você chega à criptografia em nível de campo (por exemplo, um número de Seguro Social), ela se torna um desafio maior. É preciso muita computação para criptografar um único campo e, em seguida, descriptografá-lo no ponto de uso. E ainda tem uma falha fatal: os dados originais continuam ali, só precisando da chave para ter acesso.
A tokenização evita essas armadilhas, substituindo os dados originais por um substituto que não possui valor intrínseco. Se o token for interceptado – seja pela pessoa errada ou pela máquina errada – os dados em si permanecem seguros.
O valor comercial da tokenização
"Fundamentalmente você está protegendo dados, e isso não tem preço," Raghu disse. "Outra coisa que não tem preço – você pode usar isso posteriormente para fins de modelagem? Por um lado, é uma coisa de proteção e, por outro lado, é uma coisa que permite negócios."
Como a tokenização preserva a estrutura e a ordinalidade dos dados originais, ela ainda pode ser usada para modelagem e análise, transformando a proteção em um facilitador de negócios. Vejamos, por exemplo, os dados privados de saúde regidos pela HIPAA: a tokenização significa que os dados podem ser utilizados para construir modelos de preços ou para investigação em terapia genética, mantendo-se em conformidade.
"Se os seus dados já estiverem protegidos, você poderá proliferar o uso de dados em toda a empresa e fazer com que todos criem cada vez mais valor a partir dos dados," Raghu disse. "Por outro lado, se você não tiver isso, há muita reticência por parte das empresas hoje em dia em que mais pessoas acessem ou em que mais e mais agentes de IA acessem seus dados. Ironicamente, eles estão limitando o raio de ação da inovação. O impacto da tokenização é enorme e há muitas métricas que você pode usar para medir isso – impacto operacional, impacto na receita e, obviamente, a tranquilidade do ponto de vista da segurança."
Quebrando barreiras de adoção
Até agora, o desafio fundamental da tokenização tradicional tem sido o desempenho. A IA requer uma escala e velocidade sem precedentes. Esse é um dos principais desafios que a Capital One enfrenta com o Databolt, sua solução de tokenização sem cofre, que pode produzir até 4 milhões de tokens por segundo.
"A Capital One passou pela tokenização por mais de uma década. Começamos a fazer isso porque atendemos nossos 100 milhões de clientes bancários. Queremos proteger esses dados confidenciais," Raghu disse. "Comemos nossa própria comida de cachorro com nossa capacidade interna de tokenização, mais de 100 bilhões de vezes por mês. Pegamos esse know-how e essa capacidade, escala e velocidade e inovamos para que o mundo possa aproveitá-lo, para que seja uma oferta comercial."
A tokenização sem cofre é uma forma avançada de tokenização que não requer um banco de dados central (cofre) para armazenar mapeamentos de tokens. Em vez disso, utiliza algoritmos matemáticos, técnicas criptográficas e mapeamento determinístico para gerar tokens dinamicamente. Esta abordagem é mais rápida, mais escalável e elimina o risco de segurança associado à gestão de um cofre.
"Percebemos que, para as demandas de escala e velocidade que tínhamos, precisávamos desenvolver nós mesmos essa capacidade," Raghu disse. "Temos iterado continuamente para garantir que ele possa escalar até centenas de bilhões de operações por mês. Toda a nossa inovação tem sido em torno da construção de IP e capacidade para fazer isso em uma escala testada em batalha dentro de nossa empresa, com o propósito de atender nossos clientes."
Embora os métodos convencionais de tokenização possam envolver alguma complexidade e retardar as operações, o Databolt integra-se perfeitamente com armazéns de dados criptografados, permitindo que as empresas mantenham uma segurança robusta sem diminuir o desempenho ou as operações. A tokenização ocorre no ambiente do cliente, eliminando a necessidade de comunicação com uma rede externa para realizar operações de tokenização, o que também pode diminuir o desempenho.
"Acreditamos que, fundamentalmente, a tokenização deve ser fácil de adotar," Raghu disse. "Você deve ser capaz de proteger seus dados muito rapidamente e operar na velocidade, na escala e nas necessidades de custo que as organizações têm. Acho que essa tem sido uma barreira crítica até agora para a adoção em larga escala da tokenização. Num mundo de IA, isso se tornará um grande facilitador."
Não perca toda a conversa com Ravi Raghu, presidente da Capital One Software, aqui.
Artigos patrocinados são conteúdos produzidos por uma empresa que paga pela postagem ou tem relacionamento comercial com a VentureBeat, e estão sempre claramente marcados. Para mais informações, entre em contato vendas@venturebeat.com.
Fonte ==> Cyberseo