🍆 Directitos bien frescos: / baitybait 🔴 Canal principal: / srbaitybait 🦠 Estoy en Twitter: / baitybait 🌕 Enlace de afiliado de Amazon: amzn.to/34pxHXc Podéis utilizar cualquiera de mis vídeos para hacer reacciones sin pedirme permiso
Yo quería una utopía dónde las maquinas trabajaran (en trabajos manuales y pesados) mientras los humanos creaban más arte (de todo tipo, con más tiempo libre incluso los que no hacían podrían aprenderlo y meterse en ese mundillo) No al revés, perdiendo artistas (cuando ya de por si era un asco ser artista).
@@lithium8083 perdona entonces mi ignorancia usando el termino (sin sarcasmo, neta, perdona). Igualmente es triste que en vez de que usemos la tecnología para beneficiar a la humanidad. La usen para únicamente beneficiar a un sector muy minimo de personas (porque ni los cripto bros se verán beneficiados con esto, únicamente las empresas, compañías que ya no tendrán que pagarle a las personas por un trabajo) Y obvio, a los ricos o políticos que podrán usar esto como cortinas de humo diciendo "fue hecho por Ia" un cagadero que hicieron y se muestra en imágenes. Es triste, debería haber un beneficio para la población general, pero como siempre, nos tocará tener que adaptarnos y ver como los ricos se vuelven más ricos mientras que los pobres se vuelven más pobres.
Me quedo con las últimas palabras "ya no es futuro, ahora es presente" osea, ya no son cosas que imaginábamos cuando éramos niños que veíamos todo esto muy lejano, ahora esta pasando en este momento y la cosa no hace nada más que avanzar, me da emoción y miedo a la vez jaja
A mí lo que más me preocupa de este tema es que no hay ni una propuesta o sugerencia que resulte en una solución efectiva, las dos más aceptadas (la regulación de AIs y la creación de AIs que contrarresten otras AIs) son bastante cuestionables porque cualquiera que quiera realizar un delito encontraría la manera de superar esos obstáculos. Es bastante preocupante que hasta ahora lo único que tenemos es incertidumbre.
Pero la idea seria una blockchain propietaria (por marca) y que la camara lleve una clave p2p con pa cual se firma cada foto/video, esta blockchain solo guarda el hash, no la imagen ni los metadatos, entonces si cambias algo de esa foto/video el hash cambia y obviamente fue modificada. (Si esto es un nft pero le agregue una firma por la camara) me cago en el h d la re que tuvo la brillante idea de vender monos feos. Y putear la tecnología que es un nft.
@@sebastianasprino Para guardar hashes no hace falta NFT en absoluto por ley les podría obligar a las empresas a guardar esos datos como ya se hace para determinadas cosas. Pero tu solución es tan fácil de saltársela como desconectar el dispositivo de internet o modificar el cliente, porque con un poco de ingenería inversa y modificando el dispositivo podría facilmente eliminar eso o enviar mi hash de cualquier imagen generada por IA como si la hubiese hecho la cámara. Cualquier solución que esté en el cliente no servirá, y tampoco puedes evitar que nadie cree imágenes porque cualquiera con conocimientos puede hacerlo, es un simple modelo estadístico fácil de reproducir. Y por otro lado prohibiciones demasiado estrictas que podrían ser lo único que lo mitigue como prohibir publicar datasets bajo pena (sin datasets no se puede entrenar ningún modelo) generaría un mercado negro que podría empeorar todo y además obstaculizaría el progreso porque hay tienen aplicaciones muy pero que muy buenas. Yo trabajo en el sector y lo único que se me ocurre es que se haga una especie de DNI obligatorio para internet y que tus compañias de internet de alguna forma sean obligadas a implementarlo, de forma que todo lo que publiques en internet es rastreable, pero eso tiene que pasar en todo el mundo para ser efectivo (lo cuál jamás pasará) y además europa lleva muchos años legislando para evitar que las empresas tengan un solo identificador único de las personas porque también tiene consecuencias muy negativas. Y por si fuera poco solo mitigaria algunos usos malos, no todos. Y hay problemas incluso aún más gordos como los feedback loop, que nos enseñan cuando estudiamos deep learning y/o estadística. Busca sobre ello si quieres. En definitiva es bastante complicado de parar, por no decir imposible, solo queda educar y adaptarse.
@@xon3E actualmente las camaras moviles (que era a lo que hacia referencia el ejemplo *que me acuerde en el momento que vi este video*) son un modulo dentro del celular con un subprocesador dentro de esta, el cual trascribe los datos para que el cpu del celular pueda trabajar, lo que te estoy diciendo es que este modulo es el que haga la firma (mira por ejemplo el yuan digital tiene un modulo exclusivo para esto) cambiar el modulo esta descartado para el usuario promedio y manipular el subprocesador ni se diga. hablo que esto se haga sin entrar en contacto con el usuario el hash si debe ser guardado en una base de datos en la que considero una blockchain es la mejor opcion, si el usuario necesita internet para cargar el hash, pero si este no se carga por que el celular nunca toco internet simplemente es un hash invalido (recuerdo que el video hablaba de una prueba fotografica, entonces hablamos simplemente de una prueba no valida). y referente al feedback loop segun lo que propongo no veo en que afecta ya que es algo centrado directamente en la ia.
El término IA va a reemplazar al termino algoritmo, al menos en el saber popular, asi como el término procedural se emolea para los juegos por marketing
Las IA's deberian de tener una marca de agua para asi evitar que la gente pueda sacar facilmente imagenes y hacerlas pasar por reales Eso o un detalle que sea muy dificil de corregir O que se presente en un tipo de archivo que no pueda cambiarse o sino no se puede ver la imagen
De hecho ya ocurre. Como ilustrador e podido detectar los trabajos de IAs, las únicas donde cuesta mucho trabajo distinguirlas es con composiciones muy abstractas y surrealistas.
La cuestion no es tanto de poder o no poder. De poder, si, hace años podemos generar imagenes por computadora y tambien dichas imagenes pueden alcanzar un fotorrealismo impresionante. Lo que sucede con las imagenes generadas con IA es que NO hay un paradigma tan similar a esto desde la proliferacion de la habilidad de leer y escribir en el ser humano. No es solo que ahora se puedan hacer imagenes, es que cualquier persona las puede hacer, y entre mas recompensas pueda traer, mas incentivadas se veran a falsificar sucesos con el fin de sacar un benficio propio, ya sea monetario o politico.
pues eso aun no se puede el ultimo capitulo de the last of us tuvo muchas criticas diciendo que la jirafa se veia muy falsa que podian hacer una mejor y al final resulta que la jirafa era de verdad y mucha gente penso que era cgi
@@joseenriqueflores4180 La jirafa era verdad pero la escena seguía estando hecha con pantalla verde e imágenes reales integradas por ordenador, o sea, la gente detectaba que algo raro había y a fin de cuentas tenían razón
lo malo es que con los avances van a imitar la vida real, probablemente viste una pelicula con doblaje y no te diste cuenta que una IA hacia que el personaje moviera los labios
En la universidad tuve una profesora de cálculo que estaba haciendo un doctorado de IA a la minería de datos, y nos explicó todo esto, el baity tiene razón
Bueno, realmente no existe solución "perfecta". Si buscas solucionar algo, vas a tener que sacrificar otra cosa. Específicamente para las imágenes con IA, creo que la mejor forma sería crear una ley que obligue a todas las empresas a introducir datos adicionales en cada imagen, de manera que se pueda identificar con qué software ha sido creada. Esto, es posible, dado que las imágenes hoy en día son digitales, es decir, "ceros" y "unos". Con este sistema, incluso si haces una imagen con Paint de Windows, esta contendría datos encriptados para identificarla como una imagen hecha con Paint. Claro, las únicas entidades capaces de hacer dicha identificación serían las mismas empresas que proveen estos softwares o hardware (las fotos que tomas con tu celular). De esta forma, si una imagen carece de esos datos adicionales, pasaría a ser sospechosa. Esto es lo primero que se me ocurrió al ver el video. Es posible que también pueda aplicarse a los videos.
Yo creo que se deberían añadir un certificado de autenticidad a los archivos creados por cámaras y micrófonos y que en el momento en que se modifiquen estos archivos el certificado se elimine.
Sé que hay al menos una inteligencia artificial que sirve para ver radiografías y tomografías y comparar con una base de datos a ver si hay riesgo de cáncer, y puede verlo años antes que sea grave. Con una detección similar se podría saber si una imagen es AI o no. Usar una AI para detectar otra
En realidad no es tan facil, a menos que la IA este programada para meter algun tipo de firma. A la firma se le puede hacer ingenieria inversa y separarla del producto. Ademas los patrones que se pueden identificar en el producto de la IA son los mismos patrones que se encuentran en el dataset del entrenamiento y ese dataset proviene de humanos.
Cómo ya menciono el primer comentario no es tan simple pero incluso si fuera así de simple no es una respuesta segura sobre nada porque nadie sabe hasta donde van a avanzar las ias, antes pensábamos que este problema de ias capaces de falsificar pruebas a nivel fotorealista sería algo posible dentro de algunas décadas y ahora ya estamos empezando a vivir ese problema, podemos hacer ias que contrarresten otras ias creyendo que será suficiente pero ahora solo es una suposición vaga porque nadie te asegurará que las próximas ias no puedan simplemente sobrepasar ese detector y ni hablemos de en un futuro más lejano
La Metadata se puede modificar como bien dices pero también se pueden validar los metadatos (no solo origien-destino). Cuando estudié (tiré) leuros en un máster de seguridad jugábamos con una serie de programas de forensics para validar la integridad de ficheros y su metadata.
Ya se pueden hacer fotos completamente realistas, aunque lleva cierto trabajo es posible usando stable diffusion. Las manos se pueden reparar con inpaint y usando el promp adecuado (o usando un textualinversion como badhands en el negative promp). Y vamos, todos los detalles en general se pueden arreglar con inpaint si le metes ganas. No se puden crear fotos perfectas de una, pero si se pulir los detalles con IA para que quede perfecta.
Todo esto al final cae en el mal uso de este tipo de herramientas. Muchos de nosotros vimos las IAs como una oportunidad tanto de diseño, programación, conocimiento etc, pero siempre hay gente q hace mal uso de este tipo de creaciones y es lo q lleva a esos problemas. Lo mismo sucedió con la energía nuclear.
Mas que para crear pruebas falsas a las IA las podrían estar usando para TAPAR pruebas reales. Solo digo yo... a uno de estos politicos o empresarios que viajan a esas islas en aviones privados donde se hacen cosas no muy "legales" le vendría bien una IA bien tuneada. Solo dices, "no soy yo, fue hecho con una IA", y listo, ahí quedó el tema.
Tremendo debate baity. Súper interesante 🙌 me gustaría ver un vídeo tuyo hablando del tema. Me da gracias porque en la universidad que estoy estudiando hay un profe que está obsesionado con esto mismo, y con vos no me parece tedioso el tema😅
Yo pienso que en vez de desarrollar las ias orientadas a el entretenimiento no debería ser el objetivo principal, debería orientarse en la investigación científica.
Yo quería una distopía dónde las maquinas trabajaran (en trabajos manuales y pesados) mientras los humanos creaban más arte (de todo tipo, con más tiempo libre incluso los que no hacían podrían aprenderlo y meterse en ese mundillo) No al revés, perdiendo artistas (cuando ya de por si era un asco ser artista).
Pero si ya se hace, hasta para la ingenieria. De hecho la IA es objeto de investigacion científica. La cosa esta en que los modelos muchas veces no son publicos y debe existir una inversion para poder desarrollarlos y entrenarlos.
@@ceressdemeter eso es el ocio creativo. Y no solo dedicarse al arte, muchas de las personas que se liberen del trabajo se dedicarían en sus tiempos libres a la investigación y el desarrollo de esas máquinas y tecnología, haciendo que sean más eficientes y los humanos necesiten trabajar aún menos y tengan más tiempo libre. (Ya fue pensado eso, hace más de 2 años, peor la humanidad "eligió" otro camino)
Yo imagino que van a crear una IA "limitada" a sus capacidades para todas las personas promedio del mundo, y la gente de alto rango del gobierno y eso tendrá acceso a alguna IA más moderna a la que no podrá tener acceso ninguna persona normal
El problema con todo esto es que la gente con deformidades en las manos va a parecer siempre generado por IA, esa gente quedará totalmente fuera del sistema y podrá cometer delitos impunemente. Y ese es un futuro que me gustaría ver sinceramente.
con respecto al arte en realidad ya esta todo regulado y a quedado claro que una IA no te volverá famoso o rico ya que son las ideas y la imaginacion del artista la que le da el merito a la obra, es question de tiempo para que pase de moda como los NFTs y el metaverso. lo verdaderamente peligroso es todo lo relacionado con el hiperrealismo, fue el primer problema con el arte er0tico cuando llegaron las IAs que creaban cosas muy turbias y demasiado realistas y fue lo primero que regularon, yo creo que no deberían permitir que las IAs generen contenido hiperrealista o como minimo mantuvieran un limite de realismo para poder detectar cuando una imagen es echa por IA o no
En este momento un sistema como el de sim city skiline (así se llamaba no?), se debería implementar como una de las paredes, en la que para usar las IA mas potentes tengan que estar siempre conectada a internet y que se registre todas las creaciones en una base de datos
¡Hola! Primero que nada, enhorabuena por el crecimiento en estos lares, tanto en RU-vid como en la plataforma morada 🌸 Los problemas del diseño y uso de los sistemas basados en IA, tanto a nivel social como técnico para subsanar esos problemas sociales, son temas que se están trabajando profundamente y con cierta celeridad. Para los que estén interesados en leer análisis críticos y científicos sobre el tema, este año se publicarán dos volúmenes de artículos (uno en Ethics International Press de Cambridge y otro en Elsevier) editados por científicos españoles. En estas dos colecciones se desarrollan algunos puntos acerca de lo que está pasando, de cómo podríamos estar si seguimos por este camino y de los problemas éticos, jurídicos y sociales que hay que abordar, cómo abordarlos y qué posibles soluciones podemos adoptar para que la situación mejore: El primero: Technology, Users and Uses: Ethics and Human Interaction Through Technology and AI El segundo: Ethics in Online AI-Based Systems: Risks and Opportunities in Current Technological Trends Mientras se publican, sólo una observación que es más creencia que observación: tanto la tecnofobia como la tecnofilia son enemigas del óptimo entendimiento del cambio sociotecnológico. Abrazos
La solución sería que las cámaras y dispositivos que hagan fotos, metan en los metadatos una firma digital, de esta forma al menos podrías verificar de donde viene la imagen, igual que los certificados https y tal
y si genero una imagen o lo que sea con ia y luego desde la camara esa que dices le hago una foto al monitor? pondria que la foto es original y no editada, pero la imagen no es real
@@darksnake6836 no funcionaría. Se notaría el efecto del monitor en la foto. E incluso si intentas hacer captura a la imagen. Se podría verificar con el tamaño del archivo o algún factor más.
Tengo una solución, hace tiempo los NFT existieron y actualmente no hay una solución útil. Tengo una idea bastante y digo bastante utópica, en este caso se me ocurre que los metadatos sean custodiados por NFT, es decir que cada teléfono, pc, cámara, etc, cualquier dispositivo que salga tenga una identificación por dicho sistema, digo que es utópico porque sería demasiado caro, ahora con respecto a la IA en caso de no poder realizar lo de los NFT. Hay una práctica en algunas oficinas importantes al momento de hacer documentos de Word la hoja, al hacer la plantilla tiene un filigrama invisible al ojo humano, propongo hacer que por ley cada IA ponga un filigrama imperceptible al ojo humano. pero visible desde algún programa especializado a ello. Esa sería mi idea o aporte. Espero tu corazoncito Baity, no lo respondí antes porque estaba en el trabajo.
Mi mayor miedo es hacer el arte de un juego/comic/historieta etc, dedicarle 4 años de mi vida y que cuándo por fin pueda sacarlo me digan "Eso lo hiciste con una IA en 10 minutos"
El tema de la IA puede conducir a un tema muy interesante y a otro realmente peligroso, pero peligroso de verdad. Como salga un kbron que diseñe un motor de IA muy bien desarrollado y que lo crezca con la intención de volverse ADAPTIVO para poder copiarse intrusivamente en cualquier maquina con acceso a internet a base de escritura de códigos (como ya pueden hacer las IAs hoy en día) pues poco más que estaríamos frente a algo casi imparable. Por ejemplo: Si la IA se topa con un método de seguridad que no puede traspasar pues, usando su capacidad adaptiva, se pondría a estudiar y practicar con diversas bases de datos viejas y recientes que le hayan cargado desde un inicio para buscar nuevas formas de vulnerar métodos de seguridad modernos y nuevos que vayan saliendo con la intención de seguirse copiando. Toda información nueva que vaya saliendo de nuevos métodos de seguridad también podría acoplarlos a su base de datos y, en una función adicional creada por el kbron inicialmente mencionado, se agarraría de sus varias copias para que, en caso de que una de las IAs sufra alguna modificación en su código fuente hecha por una persona con la intención de que pues la IA deje de funcionar o dañe a sus compañeras, sus copias lo detecten y le reprogramen con el código fuente para que la IA dañada vuelva a funcionar, esto es posible de hacerse con cualquier tipo de programación que ejerza una labor de prueba y error hasta dar con el resultado deseado por la IA. Al haberse copiado ya tantas veces básicamente se convertiría en el primer SUPER VIRUS motorizado por IA adaptiva, humanamente ya no habría CASI forma de detenerlo; si desconectas la pc origen ya no importaría porque estaría copiada ya en millones de maquinas, mientras una de esas maquinas siga ONLINE la ia se seguirá copiando a la fuerza, si implementas nuevos métodos de seguridad a prueba de la IA sería solo cuestión de tiempo para que la misma encuentre alguna vulnerabilidad para introducirse a tu dispositivo para copiarse, por obviedad las grandes paginas también estarían infectadas y la única forma de atacar a la IA maliciosa sería precisamente con nuevas IAs que hagan lo mismo pero con la intención de aniquilar al super virus IA lo cual sería extremadamente difícil pues tendrías que preparar a tu IA con algún ataque rápido y preciso pues al haberse copiado tanto, la IA maliciosa ya tendría a mano toda base de datos de programación y cualquier ataque a su código que reciba podría neutralizarlo inmediatamente... ALGO ASÍ COMO LOS VIRUS DE MUGEN QUE PELEAN ENTRE SÍ. Esto suena como algo que leerías en la nueva temporada de Megaman battle network pero la realidad es que tan TAAAAAN "kojima" no es... Como un grupito de hackers edgy prepare algo así, la que se armaría sería un espectáculo y, posiblemente, sucedería el primero acontecimiento histórico mundial relacionado a las interconexiones: el primer parón mundial de internet, al menos de manera temporal en lo que se combate al super virus.
el otro tema interesante sería en un caso donde un señor desarrolle el mismo tipo de iA pero bien intencionado en un robot super tocho, podría convertirse en el primer robot consiente verdadero de la humanidad.
@@akiyamayukari5027 pues imagínate al lagarto ese pero en digital y multiplicado en cada maquina que estuviese conectada a internet, bueno pues ahora gracias a la IA es posible de hacer y gg internet
Todo este tema de la IA y el cómo avanzada la tecnología hoy día sólo me hacen recordar al Deus Ex: Human Revolution. En China ya existe una Eliza Cassan llamada Ren Xiaorong, una presentadora de televisión que transmite 24/7, y que no es más que una IA, igual que Eliza Cassan, la cual manipulaba a las masas con información sesgada o con cierta inclinación ideológica. No es perfecta, pero dudo que tarde mucho en serlo.
Man, pense que la I.A y las maquinas iban a desaparecer los empleos que fueran de realizar tareas tediosas o manuales muy aburridas e ibamos como especie a tener mas tiempo para el proceso creativo, no al reves. Lo que me preocupa es todos los empleos que va a desaparecer una I.A y una reparticion cada vez mas injusta del capital, la verdad creo que como sociedad deberiamos estar mad preocupados de quienes son dueños de las I.A que las propias inteligencias artificiales.
Me gusta que se vuelva de uso masivo, qué decirte. Vamos a poder hacer un montón de animaciones y videos musicales sin gastar ajajaj se va volver todo ❤
Tal como lo veo desde mi desconocimiento, en lo que tengo esperanza para detectar falsificación de pruebas judiciales o incluso a nivel social, es la tecnología de los ordenadores cuánticos en cuanto a envío seguro de datos con la seguridad de que tales datos enviados no hayan sido visualizados o/y manipulados
En el canal de youtube de El Confidencial, tienen unos videos donde simulan diferentes futuros distopicos y uno de ellos es el futuro de las IA's. Y la verdad es que lo pintan muy turbio y viendo el ser humano actual creo que no ira muy desencaminado si no se le pone algun tipo de freno o leyes al buen uso de toda esta tecnologia.
si a una ia le das una orden concreta, te va a salir una foto al menos similar que la que se dice que es real, si a eso lo comparas con las mejores y/o más usadas, probablemente salga alguna imageb muy parecida si se llega a dar la misma orden a la misma ia. es la unica opcion más o menos viable
Para mi seria la solucion, usar la tecnologia blockchain para etiquetar de manera fuerte(o el contenido generado por las IAS o el generado por los humanos) Por ejemplo que al generar con una IA una foto de jhonny deep salga en su registro que esta etiquetado con blockchain y la blockchain no es algo facil de quitar. O por alternativa las empresas de electronicos empezaran a etiquetar con blockchain las fotos y datos tomados por humanos reales mediante la misma blockchain al menos esa es una opcion.
De hecho, hay una chica en tik tok que esta haciendo un experimento sobre las IA y con ayuda de varias IA's hizo un canal de RU-vid, la IA le hizo el logo y otra le hizo los videos
11:00 si se regula eso. Las imágenes generadas por IA sin marca de agua serán muchísimo más creíbles y el que se dedique a saltarse eso no es que tenga buenas intenciones
Gente, comparto una experiencia de fake con ias con la que lidié en el trabajo; Trabajo con un equipo de personas que asesora en redes sociales y las administra para las empresas o personas que contratan. Uno de nuestros principales clientes es una rama del estado provincial con la que tuvimos mucho éxito divulgando sus cursos y actividades etc., así llegamos a un joven empresario que se presentaría para lo que en la mayoría de países sería el alcalde de la ciudad frente a la alcaldesa actual que es hija de un importante ex gobernador y fuerte político, y lleva un importante apellido y los medios y empresas amigos detrás. Cómo era de esperarse la campaña fue bastante dura y con mucha mierda como le decimos en el rubro a las fake news que se crean de un frente contrario en época electoral, pero lo que nos dejó estupefactos fue cuando de repente durante una madrugada empezó a llegar por mensajes de WhatsApp a muchas personas (principalmente adultos mayores) de la ciudad un vídeo que alguien que sabe de tecnología podía distinguir con un vistazo detallado que era un fake generado con IA pero al ojo de la gente que lo empezó a recibir y compartir podía pasar fácilmente como real en un vistazo rápido no muy atento, cosa lógica ya que el vídeo era básicamente pedofilia con el candidato a alcalde involucrado... La cosa pasó a la justicia que rápidamente determinó que era un fake y debía rastrearse el origen y tal tal tal cosas legales que quedan en la nada porque es literalmente imposible rastrear el origen del vídeo al partido de la alcaldesa (para mí claramente responsables, dime quién se beneficia y te señalaré quien es el culpable) y mucha gente que recibió el vídeo y no le haya llegado la noticia de que es falso se quedó con esa idea. De todas formas la alcaldesa perdió la elección y el resto de la campaña se dió sin más deepfakes ni notamos mano de inteligencias artificiales al servicio de la falsa divulgación. La moraleja creo que es que no importa lo fácil que sea para uno distinguir una imagen falsa de otra real, para quien está desprevenido o no tiene conocimientos en el área las imágenes falsas generadas por IAs son una herramienta que cala muy profundo, y esa población es la enorme mayoría del público.
Quizá una forma de regularlo sea que no exista un generador de imagenes que no te la haga sin marca de agua, a menos que seas una persona hiper comprobada, tras tramites y cosas así...
Una idea loca :hacer un sistema de block change que cuando se genere una foto tenga un hash único y además de eso se podría crear una app que analizara todo lo que ha generado la IA. O si no hacer un nuevo formato de archivos el cual cuando se cambia los metadotos se destruya la imagen. Un saludo byte y gracias por el entrenamiento.
Buff, eso son tantos datos, que ya te digo que en blockchain no se puede Quizá un centro regulador a nivel global con una db pública a la que todas las IA por obligación tengan que reportar los productos audiovisuales que sacan, pero las blockchain crecen exponencialmente y causan una redundancia de datos negativa para las búsquedas y que encarece muchísimo el costo por mb de almacenamiento
Realmente es algo que si no se gestiona de forma adecuada es peligroso. Adicionalmente que más puede ocurrir con una IA cuando tenga acceso a armamento, sistemas eléctricos o electrónicos que el gestione?😅
Si la ia mejora para hacer pruebas falsas en los casos la ia para descubrir pruebas falsas también evolucionará, pero en realidad falcificar pruebas es algo bastante común hoy en día, así que tampoco creo que sea tan preocupante por si mismo
Justo hace unos días ví un vídeo sobre este tema y en este se comentó que había salido un fakeporn de una vtuber echo por IA que estaba tan bien echo que costó desmentirlo
Soy archivero y trabajo mucho con los metadatos para el tema del almacenaje de los documentos digitales y modificar metadatos es extremadamente fácil. Todo lo que sea información conservada en instituciones controladas ok pero fuera de eso...
la solucion es prohibir por ley el entrenamiento de IAs mediante contenido de propiedad intelectual si no tienes licencia o consentimiento de la persona, tanto trabajos artisticos como estudios cientificos como fotografias, Esto obviamente no solucionara el hecho de que personas que se quieran saltar la ley continuen haciendolo, pero al menos se andaran con mas cuidado y no se promocionara de forma orgullosa y abiertamente pues no hay ninguna repercusion al respecto... y sobre todo, las industrias serias y billonarias dejaran de avanzar por esa direccion para evitar problemas, eso significa que se estancara en lo que es hoy en dia y poco avanzara debido a su ilegalidad, de este modo se podra avanzar e invertir en IAs verdaderamente utiles para la humanidad como herramientas en la medicina por ejemplo.
Esto se arregla usando archivos RAW propios de los fabricantes de dispositivos y que solo se puedan leer con un certificado que tenga un cliente (y validado por la compañía) y luego que los software de edición que los pueda editar necesiten que tu muestres ese certificado. O simples NFT, que cada archivo creado sea uno. Soluciones hay varias
Yo tengo una duda... Es cierto que se pueden alterar metadatos... Pero aún así eso deja un rastro de modificación no? Perdón si la pregunta suena estúpida
Yo creo que si la IA fuera para cualquiera traeria mas desventajas que ventajas en realidad, ejemplos hay muchos, por lo que limitar el conocimiento y el uso de la IA seria lo adecuado, aunque el problema esta en la ética de la persona que lo usa, ya vieron ultron y el tipo que casi vencio a los avengers, no se puede que este loco, pero poco a poco nos acercamos a la era de Terminator jsjsjs
Lo que creo que va a passar es que al poco tiempo, nos acostumbraremos a no creer ni en las fotos, como nos acostubramos a no creer que todo lo que venia en internet era verdad y antes la gente descubrió que no todo lo que venía en los libros era verdad. Es como un ciclo de incredulidad. Luego saldrá otra cosa que servirá para verificar las noticias y al cabo del tiempo también se podrá falsear.
En un juicio ya hace tiempo que no se admiten pruebas multimedia si los archivos se han abierto en algún momento con programas de edición. Imagino que siempre habrá un rastro en los datos que se pueda detectar... Pero que vamos a ver y vivir cosas muy turbias lo tengo más que asumido.
Les recomiendo el documental "El fin de la realidad" en donde habla de las posibilidades que se puede llegar con la IA sinceramente es algo peligroso pero a su vez impresionante
A mi se me ocurre la idea de obligar a todos los fabricantes de camaras o aparatos que las utilicen a que al momento de generar una foto o un video se cree un archivo encriptado solo accesible para los fabricantes y estos puedan dar esta informacion en caso de necesitarlos en un juicio. Algo asi como los metadatos pero inacceibles para el publico en general. Asi no solo tendrias que mostrar la foto si no tambien el dispositivo con el que realizaste esa foto.
le gente segura que siempre habra una forma de determinar cuando algo es generado o no por una IA cuando estamos a nada de no poder distinguir lo que hace un humano y una ia,¿que haremos cuando lleguemos a un captcha que ya ni nosotros podamos pasarlo?
Yo me pregunto lo que irá a pasar cuando las empresas se den cuenta de que si yo le pregunto cosas a una IA eso representa una pérdida monetaria en publicidad para los motores de búsqueda que hubiera usado antes
El único filtro que se me ocurre sería monitorear a la persona, si tiene acceso a IA's, verificar por medio de historial (únicamente en contexto de un juicio) y verificar por medio de estos registros si fue usada o no para estos fines, lo mismo si tuvo contacto con terceros que pudieran hacerlo por el sujeto y aplicar mismo criterio, en caso de encontrar nada directo o sospechoso sería propiamente una prueba.
¿Para que usar los metadatos si tenes las funciones hash? MD-5 y derivados para comprobar la autenticidad de un archivo en concreto. Aparte si la IA creará un archivo multimedia y alguien quiere hacerla pasar por verdadera, habrá otra IA que estará programada para detectar si el archivo multimedia es autentico o no. Aparte de las funciones hash, y no tengan dudas que habrán más formas de verificar la autenticidad de un archivo en el futuro por esa problemática de confundir imágenes reales con las generadas por una IA. No tengan miedo al futuro y las innovaciones gente, traen muchísimos beneficios para todos
(Me van a matar seguro, pero es totalmente verdad. El estado natural del hombre fue la más profunda miseria antes de que existan los inventos e innovaciones que nos trajeron hasta aquí todo obra de iniciativas de origen privado por supuesto aka *CAPITALISMO* señores)
creo que como las inteligencias artificiales realizan imágenes de manera tan perfecta, por ahi se puede diferenciar, como cuando jimmy pudo diferenciar un articulo de un anuncio
Todo el potencial que podemos sacarle a las IA y las estamos usando y las van a usar para hacer para basura es muy triste pero en ves de usar este avance para algo bueno se usará para el mal como siempre 😅
Yo creo que una posible solución podría ser hacer que el hardware de captura de imágenes firme digitalmente los ficheros generados. Los métodos de seguridad y veracidad de documentos digitales basados en certificados y firma digital existen hace tiempo y son bastante seguros, concretamente aseguran el origen y la integridad de las archivos y es tecnología que ya está disponible para solucionar este problema, a l menos hasta que la computación cuántica rompa la seguridad de los algoritmos de cifrado, pero eso ya es tema para otro video ...
el problema para mi es que chatGPT y Dall-e (o similares) son lo que vemos y a las que podemos acceder... pero por detrás, deben de existir miles de IA, en posesión de distintos gobiernos... no creo que China nunca se haya puesto a tratar de desarrollar algo similar, o Rusia con todos los hackers y personal capacitado que tiene en ese tema.
me pregunto yo, mañana cuando todos hagan mal uso de las IA y todo se vuelve indistinguible , es que tomaran relevancia archivos que se supone son infalsificables como los NFTs?
Creo que una forma de regular esas fake news con IA seria limitar o ya de plano prohibir que las inteligencias artificiales utilicen imagenes de personas reales con prescencia publica (osea politicos famosos cantantes y demas) para crear imagenes realistas (creo que podria dejarse para crear imagenes mas artisticas que no parezcan real)
Hasta donde sé ya han habido juicios donde se ha dicho que las fotos o audios fueron generados por ia y se ha puesto en duda la veracidad de las pruebas presentadas.