New York Times experimenteert met Google Lens

New York Times experimenteert met Google Lens

The New York Times biedt lezers deze weken een nieuwe 'beleving' door een samenwerking met Google Lens, een visuele zoek-tool. De tool stelt lezers via een app in staat met hun mobiele telefoon toegang te krijgen tot extra content.

Met Google Lens kun je objecten herkennen en verklaren door de camera er op te richten. Het kan ook teksten herkennen en selecteren. De cover van The New York Times Magazine  wordt hierdoor interactief. Op de cover van het magazine staan artiesten als Billie Eilish, Lil Nas X en Megan Thee Stallion en via Google Lens krijgt de lezer een aantal video's te zien met achter de schermen beelden van de fotoshoots voor de cover.

Ook in het binnenwerk van het magazine wordt gebruik gemaakt van Google Lens. De editie van deze week is een muziek-special en bevat verder ook interactieve advertenties van onder meer Volvo.

Daarnaast bevat de editie ook andere interactieve elementen zoals video's, animatie en afspeellijsten die allemaal met Google Lens ontdekt en geactiveerd kunnen worden. Google Lens geeft lezers ook de mogelijkheid om artikelen digitaal op te slaan en te delen

Volgens een redacteur van de NY Times is visueel zoeken een nieuwe ontwikkeling die waarschijnlijk heel groot gaat worden en wil de NY Times nu al graag experimenteren met de mogelijkheden die deze nieuwe manier van zoeken biedt.

"Visueel zoeken biedt een spannend menu aan opties om naadloos de print-ervaring samen te voegen met allerlei digitale innovaties. We weten dat veel lezers al een magazine lezen met hun smartphone in hun hand, dus zou je deze ontwikkeling een logische vervolgstap kunnen noemen",  zegt hoofdredacteur van The New York Times Magazine Jake Silverstein