El director ejecutivo de OpenAI, Sam Altman, cree que la inteligencia artificial tiene una ventaja increíble para la sociedad, pero también le preocupa cómo los malos actores usarán la tecnología.
En un noticiero de ABC entrevista esta semana advirtió que “habrá otras personas que no pongan algunos de los límites de seguridad que nosotros ponemos”.
OpenAI lanzó su IA chatbot ChatGPT al público a fines de noviembre, y esta semana dio a conocer un sucesor más capaz llamado GPT-4.
Otras compañías están compitiendo para ofrecer herramientas similares a ChatGPT, lo que le da a OpenAI mucha competencia de la que preocuparse, a pesar de la ventaja de tener microsoft como un gran inversor.
“Es competitivo”, dijo el cofundador y científico jefe de OpenAI, Ilya Sutskever, a The Verge en un entrevista publicado esta semana. “GPT-4 no es fácil de desarrollar… hay muchas empresas que quieren hacer lo mismo, por lo que, desde el punto de vista competitivo, se puede ver esto como una maduración del campo”.
Sutskever estaba explicando la decisión de OpenAI (siendo la seguridad otra razón) de revelar poco sobre el funcionamiento interno de GPT-4, lo que provocó que muchos pregunta si el nombre “OpenAI” todavía tenía sentido. Pero sus comentarios también fueron un reconocimiento de la gran cantidad de rivales que le pisaban los talones a OpenAI.
Algunos de esos rivales podrían estar mucho menos preocupados que OpenAI por poner barreras en sus equivalentes de ChatGPT o GPT-4, sugirió Altman.
“Algo que sí me preocupa es… que no seremos los únicos creadores de esta tecnología”, dijo. “Habrá otras personas que no pongan algunos de los límites de seguridad que le ponemos nosotros. Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo”.
OpenAI esta semana compartió una documento “tarjeta del sistema” que describe cómo sus evaluadores intentaron deliberadamente que GPT-4 ofreciera información peligrosa, por ejemplo, cómo hacer un químico peligroso usando ingredientes básicos y suministros de cocina, y cómo la compañía solucionó los problemas antes del lanzamiento del producto.
Para que nadie dude de la intención maliciosa de los malos actores que buscan la IA, los estafadores telefónicos ahora están usando herramientas de IA de clonación de voz para parecer familiares de personas que necesitan desesperadamente ayuda financiera, y extraer dinero con éxito de las víctimas.
“Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala”, dijo Altman. “Ahora que están mejorando en la escritura de códigos informáticos, [they] podría usarse para ataques cibernéticos ofensivos”.
Teniendo en cuenta que dirige una empresa que vende herramientas de inteligencia artificial, Altman ha sido notablemente comunicativo sobre los peligros que plantea la inteligencia artificial. Eso puede tener algo que ver con La historia de OpenAI.
OpenAI se estableció en 2015 como una organización sin fines de lucro enfocada en el desarrollo seguro y transparente de la IA. Cambió a un modelo híbrido de “beneficio limitado” en 2019, y Microsoft se convirtió en un inversor importante (cuánto puede beneficiarse del acuerdo está limitado, como sugiere el nombre del modelo).
tesla y Gorjeo El CEO Elon Musk, quien también fue cofundador de OpenAI, y quien le hizo una fuerte donación,ha criticado este cambio, notando el mes pasado: “OpenAI se creó como una fuente abierta (por eso la llamé IA “abierta”), una empresa sin fines de lucro para servir como contrapeso a Googlepero ahora se ha convertido en una empresa de código cerrado y máxima rentabilidad controlada efectivamente por Microsoft”.
A principios de diciembre, Musk llamó a ChatGPT “aterrador bueno” y advirtió: “No estamos lejos de una IA peligrosamente fuerte”.
Pero Altman ha estado advirtiendo al público tanto, si no más, incluso mientras sigue adelante con el trabajo de OpenAI. El mes pasado, se preocupó por “cómo nos verá la gente del futuro” en una serie de tuits.
“También necesitamos tiempo suficiente para que nuestras instituciones decidan qué hacer”, escribió. “La regulación será crítica y llevará tiempo descubrirla… tener tiempo para comprender lo que está sucediendo, cómo la gente quiere usar estas herramientas y cómo la sociedad puede coevolucionar es fundamental”.
ukraine news
sky news
news today
abc news
google news
cnn news
yahoo news
msn news
news articles
news and observer
news and advance
news anchor
news articles today
news and record
news anchor salary
news austin
news anchors affair
news atlanta
arsenal transfer news
arsenal news
ary news live
a newspaper
a newsletter alison roman
a news article
a newspaper article
about chelsea news
news break
news boston
news background
news bias chart