<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
    <id>https://www.elheraldo.com.ar/feed-etiqueta/openai</id>
    <link href="https://www.elheraldo.com.ar/feed-etiqueta/openai" rel="self" type="application/atom+xml" />
    <title>El Heraldo</title>
    <subtitle>Últimas noticias de Argentina</subtitle>
    <updated>2023-07-14T03:31:13+00:00</updated>
        <entry>
        <title>
            Dos escritores y una actriz demandaron a la empresa OpenAI por “enriquecimiento indebido”
        </title>
        <link rel="alternate" href="https://www.elheraldo.com.ar/noticias/interes-general/dos-escritores-y-una-actriz-demandaron-a-la-empresa-openai-por-enriquecimiento-indebido" type="text/html" title="Dos escritores y una actriz demandaron a la empresa OpenAI por “enriquecimiento indebido”" />
        <id>https://www.elheraldo.com.ar/noticias/interes-general/dos-escritores-y-una-actriz-demandaron-a-la-empresa-openai-por-enriquecimiento-indebido</id>
        <author>
            <name>
                <![CDATA[El Heraldo ]]>
            </name>
        </author>
        
                                <content type="html" xml:base="https://www.elheraldo.com.ar/noticias/interes-general/dos-escritores-y-una-actriz-demandaron-a-la-empresa-openai-por-enriquecimiento-indebido">
                    <![CDATA[<figure><img src="https://cdnartic.ar/pXHynIdjdcQQd1rXLPEDC5WhyDg=/800x0/filters:no_upscale():format(webp):quality(40)/https://elheraldocdn.eleco.com.ar/noticias/2023/07/14_demanda.jpg" class="type:primaryImage" /></figure><p>Los escritores Paul Tremblay y Mona Awad, y la actriz Sarah Silverman, demandaron a la empresa de inteligencia artificial OpenAI, responsable del desarrollo de ChatGPT, por haber usado sus obras sin permiso para entrenar el modelo de lenguaje, en un planteo judicial que interroga sobre las fuentes de contenido utilizadas para entrenar al sistema para generar texto a gran velocidad.</p><p>Tanto Tremblay como Awad son figuras reconocidas en el mundo literario norteamericano. Tremblay, nacido en Colorado, ha logrado éxito como autor de novelas de terror, fantasía y ciencia ficción, como “Una cabeza llena de fantasmas”. Awad es una novelista canadiense y ha recibido elogios de la crítica por obras como “13 maneras de fijarse en una chica gorda”, al punto que Margaret Atwood la consideró como su “aparente heredera literaria”. Por su parte, Silverman es una estrella de televisión desde la década de 1990, cuando comenzó su carrera en Saturday Night Live.</p><p>La demanda de Sarah Silverman -que también apunta a Meta, la empresa matriz de Facebook- alega que las compañías utilizaron ilegalmente su obra, “The Bedwetter”, para entrenar sus modelos de lenguaje. Junto a los escritores Paul Tremblay y Mona Awad, representados por el mismo equipo de abogados, argumentan que nunca dieron su consentimiento para el uso de sus libros con derechos de autor como material de entrenamiento para la inteligencia artificial. Las demandas buscan explorar la legalidad del programa de OpenAI, que según los responsables “ingirió y deglutió” sus libros y los utilizó para entrenar a ChatGPT, lo que resultó en la generación de “resúmenes muy precisos” de sus novelas. El documento presentado por Tremblay y Awad en un tribunal de San Francisco destaca el presunto enriquecimiento indebido de OpenAI mediante el uso de su material protegido por derechos de autor. Si bien OpenAI no ha revelado públicamente los datos y textos específicos utilizados para entrenar a ChatGPT, ha mencionado que la información se extrae de internet, incluyendo fuentes como Wikipedia y la extensa base de datos del Proyecto Gutenberg, que contiene más de 60,000 títulos de dominio público, reportó el diario británico The Guardian.</p><p>La demanda de Tremblay y Awad es el puntapié de una demanda colectiva que podría beneficiar a todas las personas o entidades en Estados Unidos que posean los derechos de autor de obras utilizadas como datos de entrenamiento para los modelos de lenguaje de OpenAI. Aunque sus reclamos no se refieren explícitamente al plagio, arrojan luz sobre una forma más indirecta de lucro. Según el texto de la denuncia, la demanda apunta, en realidad, a “todas las personas o entidades domiciliadas en Estados Unidos que posean los derechos de autor en cualquier trabajo que se haya utilizado como datos de capacitación para los modelos de lenguaje de OpenAI”.</p>]]>
                </content>
                                                <summary type="html">
                    <![CDATA[<figure><img src="https://cdnartic.ar/pXHynIdjdcQQd1rXLPEDC5WhyDg=/800x0/filters:no_upscale():format(webp):quality(40)/https://elheraldocdn.eleco.com.ar/noticias/2023/07/14_demanda.jpg" class="type:primaryImage" /></figure>Los escritores Paul Tremblay y Mona Awad, y la actriz Sarah Silverman, accionaron judicialmente contra la empresa OpenAI usado sus obras sin permiso para entrenar el modelo de lenguaje.]]>
                </summary>
                                <category term="interes-general" label="Interés General" />
                <updated>2023-07-14T03:31:13+00:00</updated>
                <published>2023-07-14T03:27:48+00:00</published>
    </entry>
        <entry>
        <title>
            La inteligencia artificial es ya una espada de doble filo  para la tecnología y la ética
        </title>
        <link rel="alternate" href="https://www.elheraldo.com.ar/noticias/tecnologia/la-inteligencia-artificial-es-ya-una-espada-de-doble-filo-para-la-tecnologia-y-la-etica" type="text/html" title="La inteligencia artificial es ya una espada de doble filo  para la tecnología y la ética" />
        <id>https://www.elheraldo.com.ar/noticias/tecnologia/la-inteligencia-artificial-es-ya-una-espada-de-doble-filo-para-la-tecnologia-y-la-etica</id>
        <author>
            <name>
                <![CDATA[El Heraldo ]]>
            </name>
        </author>
        
                                <content type="html" xml:base="https://www.elheraldo.com.ar/noticias/tecnologia/la-inteligencia-artificial-es-ya-una-espada-de-doble-filo-para-la-tecnologia-y-la-etica">
                    <![CDATA[<figure><img src="https://elheraldocdn.eleco.com.ar/elheraldo-static/images/logo.png" class="type:primaryImage" /></figure><p>Los expertos en seguridad de Check Point Software aseguran que 2023 será el «Año de la IA», augurando un gran avance y la disponibilidad generalizada de estas herramientas.</p><p>El último día de marzo, el organismo de regulación de datos italiano (Garante per la Protezione dei dati personali)&nbsp;ordenó&nbsp;la limitación temporal del procesamiento de datos de usuarios italianos por OpenAI, y por ende su popular herramienta ChatGPT, en relación con el inicio de una investigación para asegurar el cumplimiento del Reglamento General de Protección de Datos europeo (GDPR).
</p><p>Tal y como señala&nbsp;Check Point® Software Technologies Ltd.&nbsp;(NASDAQ: CHKP), un proveedor líder de soluciones de ciberseguridad a nivel mundial, este suceso tiene origen en la reciente filtración de datos de la herramienta de inteligencia artificial detectada el pasado 20 de marzo, en la que se habrían expuesto las conversaciones de los usuarios junto con información privada como datos de facturación y tarjetas de crédito parciales de los suscriptores.
</p><p>Según detalla el comunicado oficial del garante italiano, actualmente ChatGPT �Sno proporciona ninguna información a los usuarios, ni a los interesados cuyos datos han sido recopilados por OpenAI⬝, señalando �Sla ausencia de una base jurídica adecuada en relación con la recopilación de datos personales y su tratamiento⬝ y el incumplimiento de los artículos 5, 6, 8, 13 y 25 del GDPR.
</p><p>Si bien por el momento actualmente sólo Italia ha puesto en marcha esta ordenanza e investigación, dada la presunta base de incumplimiento del reglamento europeo para el tratamiento de datos, es posible que otros países o el propio organismo central de la Unión Europea anuncien medidas similares en los próximos días.
</p><p></p><p>Los peligros y posibilidades de la inteligencia artificial
</p><p>Por su parte, Paal Aaserudseter, ingeniero de seguridad de Check Point Software,&nbsp;ha compartido&nbsp;la visión de la compañía en relación con la materia de inteligencia artificial, la ciberseguridad y cómo las empresas pueden mantenerse seguras dentro de esta nueva era de innovación digital.
</p><p>�SEl potencial del uso indebido de datos es, con mucho, una de mis mayores preocupaciones con respecto a ChatGPT⬝ asegura Aaserudseter. �SEl problema en cuestión es que la mayoría de los usuarios no son conscientes del riesgo que implica cargar este tipo de información sensible. Con suerte, el efecto positivo en Italia de la prohibición de ChatGPT es que la Ley de IA de la UE entrará en vigor mucho más rápido⬝.
</p><p>La IA ya ha demostrado su potencial para revolucionar campos como la atención médica, las finanzas o el transporte, entre muchos otros. Puede automatizar tareas tediosas, mejorar la eficiencia y proporcionar información que antes era imposible obtener, ayudando a resolver problemas complejos y tomar mejores decisiones.
</p><p>Aunque es igualmente importante mantener unas expectativas realistas y no ver estas herramientas como una panacea para todos los problemas, al menos por el momento. Actualmente la mayor parte de IA que usamos se agrupan dentro de la Inteligencia Estrecha o «débil» (ANI), lejos de la Súper Inteligencia (ASI) cuya inteligencia superaría las capacidades humanas.
</p><p>Para mitigar los riesgos asociados con la IA avanzada, es importante que los investigadores y los legisladores trabajen juntos para garantizar que estas herramientas se desarrollen de manera segura y beneficiosa. Esto incluye el desarrollo de mecanismos de seguridad sólidos, el establecimiento de pautas éticas y la promoción de la transparencia y la responsabilidad en el desarrollo de la IA. En este orden, todos los organismos relacionados, tales como los gobiernos, las empresas y los propios desarrolladores deben considerar los siguientes pilares fundamentales:
</p><p>Establecer pautas éticas: debe haber pautas éticas claras para el desarrollo y uso de la IA que estén alineadas con los valores y principios sociales, como la transparencia, la responsabilidad, la privacidad y la equidad.
</p><p>Fomentar la transparencia: las empresas y desarrolladores deben ser transparentes acerca de sus sistemas de IA, incluida la forma en que están diseñados, capacitados y probados.
</p><p>Asegurar la privacidad: las empresas deben priorizar la protección de la privacidad de los usuarios, especialmente cuando se trata de datos confidenciales, implementando protocolos sólidos de protección de datos y proporcionar explicaciones claras sobre cómo se recopilan, almacenan y utilizan los datos de los usuarios.
</p><p>Priorizar la seguridad: la seguridad debe ser una prioridad máxima en el desarrollo de la IA, y se deben implementar mecanismos para prevenir los daños causados por los sistemas de IA. Esto incluye el desarrollo de protocolos de prueba sólidos y la implementación de mecanismos a prueba de fallos y vulnerabilidades.
</p><p>Fomento de la innovación: los gobiernos deben proporcionar fondos y recursos para apoyar la investigación y el desarrollo en IA, al mismo tiempo que garantizan que la innovación se equilibre con una gobernanza responsable.
</p><p>Fomentar la participación pública y la accesibilidad: debe haber oportunidades para la participación pública y la participación en el desarrollo y la regulación de la IA, para garantizar que se consideren las necesidades y preocupaciones del público. Las empresas deben diseñar sus sistemas de IA para que sean accesibles para todos los usuarios, independientemente de sus capacidades físicas o experiencia técnica, proporcionando instrucciones claras e interfaces de usuario que sean fáciles de entender y usar.
</p><p>La IA puede ser tanto una herramienta para los atacantes como para los defensores. A medida que las tecnologías se vuelven más avanzadas, pueden ser usadas para crear ataques más sofisticados y difíciles de detectar. Tal y como ha mostrado Check Point Research en anteriores ocasiones, actualmente ChatGPT ya está siendo utilizada para automatizar procesos e incluso crear campañas de phishing dirigidas o incluso lanzar ataques automatizados.
</p><p>No obstante, en contraposición a estos hechos, hoy en día la inteligencia artificial y el machine learning son dos de los grandes pilares que ayudan a la constante mejora de las capacidades de la ciberseguridad, llegando incluso algunos expertos a señalar que la próxima generación de defensa se basará en gran medida en estas funcionalidades de la robótica.
</p><p>El grado de complejidad y dispersión de los sistemas con los que trabajan las empresas actualmente hace que los medios tradicionales y manuales de vigilancia, supervisión y control de riesgos comiencen a ser insuficientes. Razón por la cual podemos encontrar algunas herramientas de defensa que hacen uso de este tipo de capacidades.
</p><p>Recientemente tuvo lugar la presentación Check Point Infinity Spark, una nueva solución de prevención de amenazas que ofrece una seguridad basada en una inteligencia artificial líder en el sector y una conectividad integrada.
</p><p>Esta herramienta ofrece seguridad de nivel empresarial a toda la red, correo electrónico, oficina, endpoints y dispositivos móviles. Contando con la mejor tasa de prevención del sector, rozando la perfección con un 99,7% de efectividad, es capaz de proteger a las empresas frente a amenazas avanzadas como phishing, ransomware, robo de credenciales y ataques DNS.
</p><p>�SLa carrera contra los ciberdelincuentes continúa siendo una de las principales prioridades de los expertos en ciberseguridad. Debemos mantenernos actualizados para tratar hacer frentes a todas las amenazas actuales y futuras⬝ comparte Eusebio Nieva, director técnico de Check Point para España y Portugal.&nbsp;�SInfinity Spark es un claro ejemplo de las posibilidades de la inteligencia artificial, presentando una herramienta excelente y asequible capaz de ofrecer una seguridad integral con una protección completa para las empresas y sus empleados, tanto dentro como fuera de la oficina⬝.
</p><p></p><p>
</p><p>
</p><p>
</p>]]>
                </content>
                                                <summary type="html">
                    <![CDATA[<figure><img src="https://elheraldocdn.eleco.com.ar/elheraldo-static/images/logo.png" class="type:primaryImage" /></figure>El Gobierno de Italia limita el tratamiento de datos de usuarios italianos por OpenAI, a la par se abre una investigación hacia la compañía detrás del servicio para asegurar el cumplimiento del Reglamento General de Protección de Datos europeo.]]>
                </summary>
                                <category term="tecnologia" label="Tecnología" />
                <updated>2023-04-11T00:01:00+00:00</updated>
                <published>2023-04-11T00:01:00+00:00</published>
    </entry>
    </feed>