¿Qué es el texto en vivo? ¿Cómo usarlo en iOS 15 y iPadOS 15?
Miscelánea / / August 04, 2021
Con la actualización de iOS 15, Apple introdujo una nueva función llamada Texto en vivo. Esta función le permite usar cualquier texto o número que pueda encontrar con el visor de su iPhone y hacer un uso significativo de él. La nueva función de texto en vivo en iOS 15 ayuda en las tareas diarias y es especialmente útil cuando viaja a un lugar y no conoce su idioma. En este artículo, vamos a explicar todo sobre el texto en vivo en iOS 15.
El texto en vivo es una función útil que le permite tomar texto o números del visor de su cámara o de una foto que ya haya tomado. Puede utilizar esta función para hacer muchas cosas. Le permite realizar cosas como copiar texto, buscar productos o llamar a números directamente desde el visor. Esta tecnología es similar a Lens de Google, que se puede utilizar para obtener los mismos resultados. Sin embargo, esta función está disponible para dispositivos iOS ahora y se puede utilizar en dispositivos iPhone y iPad que tengan las últimas actualizaciones de iOS 15.
![¿Qué es el texto en vivo? Cómo usarlo en iOS 15 y iPadOS 15](/f/f06c89ce522c00fae4413fe069267201.jpg)
Contenido de la página
-
¿Qué es el texto en vivo? Cómo usarlo en iOS 15 y iPadOS 15
- Caso de uso del mundo real
- Cómo usar la función de texto en vivo en iOS o iPadOS 15
- Conclusión
¿Qué es el texto en vivo? Cómo usarlo en iOS 15 y iPadOS 15
Para empezar, la función Livetext puede procesar imágenes en texto. Esta función no se detiene ahí, sino que también se expande al reconocimiento óptico de caracteres. Esta función puede ayudarlo a procesar texto escrito a mano, por ejemplo, de un cuaderno.
Por lo tanto, si ha escrito una nota en un seminario y desea enviarla como un documento de Word, no tiene que volver a escribir todo; El OCR puede permitirle escanear el texto y convertirlo en texto digital que puede utilizar en documentos digitales. Livetext también puede hacer mucho más que eso. Es muy consciente del contexto. Por lo tanto, también podría usarse para escanear códigos QR.
Caso de uso del mundo real
Bueno, estas características pueden tentarlo a pensar, cuál sería un escenario de caso de uso del mundo real para esta característica. En realidad, hay muchos que decir, pero explicaré algunos que pueden ayudarlo a comprender el caso de uso de esta función en el mundo real.
![](/f/a1e025452ef5202146f31197dc9bfc44.jpg)
Por ejemplo, puede apuntar su cámara a un libro bancario y copiar el número de cuenta para no tener que volver a verificar varias veces para asegurarse de que es el número de cuenta correcto. O simplemente puede señalar una tarjeta de visita y escanear la dirección de correo electrónico o el número de teléfono.
![](/f/52808288f1e9fdb3b8ebf33b9b32a665.jpg)
Luego, puede marcar fácilmente ese número o enviar un correo electrónico, ya que esta función puede llevarlo a la aplicación adecuada directamente desde el visor.
Anuncios
Cómo usar la función de texto en vivo en iOS o iPadOS 15
En realidad, iOS 15 actualmente solo está en manos del desarrollador para las pruebas beta. Por lo tanto, la versión beta pública saldrá el próximo mes para que practique y pruebe esta función. Entonces, una vez que obtenga acceso a la versión beta de iOS 15, debería poder encontrar esta función como una aplicación separada o integrada en el visor. De cualquier manera, hará el mismo trabajo.
En este punto, ya debería saber que solo puede ver esta función en iOS 15 o iPad OS 15. Pero eso es solo el lado del software. Para el hardware, es posible que necesite al menos el chipset A12 Bionic de Apple. Esto significa que debe tener al menos un iPhone X o superior o un iPad mini de quinta generación y superior. La razón es que este texto en vivo utiliza el motor neuronal de Apple que se encuentra en los chips biónicos A12. Por lo tanto, no es posible ejecutar la aplicación en la generación anterior de iPhones o iPad, como iPhone 7, 8 o iPad mini.
Conclusión
Entonces, como puede ver, la función de texto en vivo en iOS o iPad OS 15 será un gran problema cuando se lance al público. A diferencia de Google Lens, que utiliza la nube de Google para calcular todo, Livetext se ejecutará localmente en Neural Engine. Esto podría ser beneficioso de alguna manera. Porque cuando usamos la nube para hacer las operaciones, dependemos de una conexión a Internet que funcione, sea rápida y confiable. Por lo tanto, cuando los cálculos se ejecutan localmente, puede evitar la necesidad de una Internet rápida. Sin embargo, no es apropiado sacar conclusiones precipitadas ahora. Como los resultados pueden variar cuando tenemos el producto real para probar.
Anuncios